AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E96 - De klok tikt: meld je aan voor de AI Doe Week met Rob van de Star
De AI Doe Week, georganiseerd door Hogeschool Windesheim, vindt plaats van 2-8 december 2023. Het evenement start op 2 december met een Community of Practice for Generative AI.
Het doel is bewustzijn creëren over de mogelijkheden en impact van AI, met aandacht voor ethiek, juridische aspecten en technologie. De kick-off biedt plenaire sprekers, break-out sessies en netwerkgelegenheden.
Gedurende de week kunnen organisaties eigen AI-gerelateerde evenementen organiseren. Er zijn trainingen voor docenten en scans voor bedrijven beschikbaar. Het evenement beoogt kennis te delen, AI-adoptie te versnellen en de kloof tussen voor- en tegenstanders te verkleinen.
Onderwerpen
- AI Doe Week
- Bewustzijn creëren over AI
- Ethiek en juridische aspecten van AI
- Maatschappelijke impact van AI
- Programma en activiteiten tijdens de week
- Website: AI Doe Week
- Opleidingsinstituut: Hogeschool Windesheim
- App: Windesheim AI App
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Hogeschool Windesheim - Community of Practice for Generative AI - Belastingdienst
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:07,040
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday live.
2
00:00:07,040 --> 00:00:13,160
Vandaag zul je het als host met mij alleen moeten doen, maar de gast maakt het dubbel zo goed.
3
00:00:13,160 --> 00:00:16,460
Rob van de Star van Windersheim, zal zich zo zelf voorstellen.
4
00:00:16,460 --> 00:00:20,740
We gaan het hebben over de AI Doe Week, die al heel snel komt.
5
00:00:20,740 --> 00:00:24,660
Iedereen kan daarbij aansluiten en daar gaan we het vandaag over hebben.
6
00:00:24,660 --> 00:00:28,880
Rob, ontzettend leuk dat je weer bij ons in de studio bent voor de tweede keer.
7
00:00:29,940 --> 00:00:35,760
We gaan het over de AI Doe Week hebben, maar voordat we daaraan beginnen, zou je jezelf eerst willen voorstellen aan de luisteraar?
8
00:00:35,760 --> 00:00:41,580
Natuurlijk, graag. Mijn naam is Rob van de Star. Ik ben docent onderzoeker bij Hogeschool Windesheim.
9
00:00:41,580 --> 00:00:45,180
Ik ben actief binnen het Lectoraat Digital Business & Society.
10
00:00:45,180 --> 00:00:46,680
Zo, mondvol.
11
00:00:46,680 --> 00:00:47,180
Mondvol.
12
00:00:47,180 --> 00:00:50,980
Ja, toch? En wat wordt er gedaan binnen het Lektoraat?
13
00:00:50,980 --> 00:00:58,720
Een goede vraag. Een van onze stromingen is alles wat met de industrie 4.0 te maken heeft.
14
00:00:59,880 --> 00:01:07,060
onder meer in Zolle, per ontho 38, een fysieke locatie, direct naast het station waar je prachtige machinerie ziet staan.
15
00:01:07,060 --> 00:01:13,040
Waar studenten in de minor industriële robotica zes maanden mogen spelen.
16
00:01:13,040 --> 00:01:20,580
Een andere stroming, dat is de publieke sector, waar we een aantal onderzoek aan doen zijn voor de overheid, zeker de Rijksoverheid.
17
00:01:20,700 --> 00:01:34,060
En last but not least, we hebben binnen ons Lektoraat ook de digitale werkplaats voor de regio Zolle, waarin wij MBO en HBO studenten ook verbinden met MKB-omnemers om te helpen op een tocht bij digitalisering.
18
00:01:34,240 --> 00:01:38,500
Ja, mooi. En die AI Doe Week komt eraan.
19
00:01:38,500 --> 00:01:45,260
Je hebt mij en Niels uitgenodigd om daar ook live op het podium opnames te komen maken.
20
00:01:45,260 --> 00:01:46,280
Dat doen we heel graag.
21
00:01:46,980 --> 00:01:52,300
En die dag, 2 december, is de kick-off voor de AI Doe Week.
22
00:01:52,300 --> 00:01:54,720
Zou jij kunnen uitleggen wat de AI Doe Week is?
23
00:01:54,720 --> 00:02:02,520
Jazeker. En om te beginnen de kick-off op 2 december, om half vier, op de campus bij Hogeschool Windesheim in Zwolle.
24
00:02:03,220 --> 00:02:07,180
We hebben in het auditorium ruimte voor zo'n 380 mensen.
25
00:02:07,180 --> 00:02:09,120
Er zijn ook een paar plekjes over.
26
00:02:09,120 --> 00:02:13,200
Kijk, in de show notes staat de link waar mensen zich kunnen aanmelden.
27
00:02:13,200 --> 00:02:18,220
Ja, je kan kijken op www.windesheim.ai.
28
00:02:18,220 --> 00:02:26,420
Dan zie je vanzelf het linkje zowel naar de kick-off sessie, dus de Community of Practice for Generative AI.
29
00:02:26,420 --> 00:02:31,940
We noemen dat voor het tweede jaar, net twee dagen na de tweede verjaardag van ChatGPT.
30
00:02:32,940 --> 00:02:40,340
En dat is inderdaad ook de kick-off daarna van de AI Doe Week, die van dinsdag tot en met zei dag loopt.
31
00:02:40,340 --> 00:02:47,160
Waar we, zeg maar, hoog over een viertal thema's hebben neergezet.
32
00:02:47,160 --> 00:03:00,140
Ethiek als thema, de juridische aspecten van AI, law, de impact op de maatschappij, de society aspects en last,
33
00:03:00,260 --> 00:03:02,940
en zeker nog het liefst de technologie die dit allemaal mogelijk maakt.
34
00:03:02,940 --> 00:03:03,180
Ja.
35
00:03:03,180 --> 00:03:13,440
Wat is de bedoeling om in de Doe Week, iedereen in Almere en Zwolle, en dan heb ik het over binnen Windersheim zelf,
36
00:03:13,680 --> 00:03:31,580
dat kunnen bedrijven zijn, dat kunnen organisaties zijn, dat kunnen verenigingen zijn, dat kunnen overheidsinstanties zijn, dat kan ook iemand in een buurthuis zijn, om die allemaal op te roepen om een activiteit te bedenken voor eigen rekening en risico.
37
00:03:32,200 --> 00:03:36,920
En als je dat dan bij mij aanmeldt, dan zal ik zorgen dat je in het balboekje terechtkomt.
38
00:03:36,920 --> 00:03:48,320
Het is aan mijn tijd om een balboekje te beheren en met name daarmee ook zichtbaarheid te creëren voor jouw eigen evenement, zodat daar en meer mensen naartoe kunnen komen en jij ook kan netwerken met mensen die je graag naar je toe halen.
39
00:03:48,320 --> 00:03:52,200
Mooi. En is dat gebonden aan een specifiek thema?
40
00:03:53,800 --> 00:04:01,180
Eigenlijk laat ik dat over aan ieder die wil organiseren, als er een link is met AI in de breedte zin van het woord.
41
00:04:01,180 --> 00:04:13,120
Dat kan zijn dat een opleider in AI naar een buurthuis gaat en zegt van goh, ik ga als voor jongens en meisjes van een jaar of twaalf een uurtje met ze babbelen en ze wat wegwijzen maken.
42
00:04:13,580 --> 00:04:24,260
Het kan zijn dat een aantal wetenschappers, vakmensen, onderlinge dialoog willen starten over ethiek voor het gebruik van AI.
43
00:04:24,260 --> 00:04:37,700
Het kan zijn dat je veel meer aan de technische kant gaat zitten, de machine learning kant en dat je op dat punt iets wil organiseren tot en met kom maar wat knutselen bij ons en maak maar een robotje wat kan lopen.
44
00:04:37,700 --> 00:04:42,720
Oh ja, dus eigenlijk alles wat gewoon met de technologie te maken heeft. Ja, wat leuk.
45
00:04:43,360 --> 00:04:46,840
En wat is het doel dan van die Doe Week?
46
00:04:46,840 --> 00:04:58,560
De bedoeling is om haar te bewust zijn van datgene wat mogelijk is, om dat breder, dieper onder ons in de Nederlandse samenleving om dat te delen.
47
00:04:58,560 --> 00:05:02,720
Als je kijkt naar de ontwikkelingen die op dit punt plaatsvinden.
48
00:05:02,720 --> 00:05:04,720
Ik zit 40 jaar in de technologie vak.
49
00:05:06,000 --> 00:05:14,360
Als ik dit vanuit een innovatief perspectief mag beschouwen, dan heb ik nog niet eerder zo snel zo veel ontwikkelingen zien gebeuren.
50
00:05:14,360 --> 00:05:25,000
En door met name ook hands-on, gewoon aan de slag te gaan, hoop ik dat we in ieder geval onszelf ook een stapje op dat punt verder helpen en die kennis met elkaar delen.
51
00:05:25,000 --> 00:05:34,700
En met die versnelling, ook eigenlijk de versnelling wat het niet alleen betekent vanuit het onderwijs, want je komt vanuit het onderwijs, maar eigenlijk voor de samenleving in het geheel.
52
00:05:34,700 --> 00:05:35,860
Correct, correct.
53
00:05:37,200 --> 00:05:46,060
Wat je ziet is dat met name kenniswerkers hun werk een stuk gemakkelijker kunnen maken.
54
00:05:46,060 --> 00:05:53,420
En ja, die zijn de kenniswerkers, dat zijn de jongens en meisjes die al in groep 1 in het basisonderwijs beginnen.
55
00:05:55,420 --> 00:06:10,840
En ja, ik denk ook dat in werkelijkheid, als je kijkt naar bijvoorbeeld een tool als ChatGPT, en ja, dat is slechts een van de vele tools die er zijn, hoe dat al breed en diep onder de jongeren binnen onze bevolking gebruikt wordt.
56
00:06:10,840 --> 00:06:14,160
Nou, ik denk dat het richting 100% tendeert.
57
00:06:14,160 --> 00:06:21,020
Terwijl je ziet dat de wat oudere bevolking nog wat verder daar achteraan loopt.
58
00:06:21,100 --> 00:06:34,880
Nou, wat ik wel, ik las laatst ergens een onderzoek, ik weet even niet meer waar dat was, maar dat ging erover dat we ervan uitgaan dat digitale vaardigheden bij jongeren, dat we die eigenlijk overschatten.
59
00:06:34,880 --> 00:06:46,660
Dat we denken, omdat ze met deze technologieën omgaan, dat ze daardoor ook heel vaardig mee zijn en ook heel goed weten hoe ze dat verstandig zouden moeten gebruiken.
60
00:06:46,660 --> 00:06:49,680
En dat onderzoek liet het tegenovergestelde zien.
61
00:06:50,220 --> 00:06:53,480
Herken je dat of zeg je van, nou, daar ben ik het helemaal niet zo mee eens?
62
00:06:53,480 --> 00:06:55,120
Ik ken het onderzoek niet.
63
00:06:55,120 --> 00:06:56,840
Ik ben ook wat verrast.
64
00:06:56,840 --> 00:07:05,840
Wat ik zelf zie, en misschien heb ik in die zin, laat ik dat woordje maar gebruiken, gebiased.
65
00:07:05,840 --> 00:07:10,360
Omdat ik veel met hbo-studenten acteer.
66
00:07:10,360 --> 00:07:19,880
En ja, je ziet dat ze dat eigenlijk zeg maar als een integraal onderdeel van hun werken, van hun studeren, van hun leven nu oppakken.
67
00:07:19,880 --> 00:07:26,280
Dus ik zie het eerder dat ze zeg maar eigenlijk qua adoptie het heel snel hebben opgepakt.
68
00:07:26,280 --> 00:07:26,560
Ja.
69
00:07:27,560 --> 00:07:29,740
En het ook goed weten toe te passen.
70
00:07:29,740 --> 00:07:30,560
Of niet allemaal.
71
00:07:30,560 --> 00:07:33,040
Maar die trekken het been, er wordt heel bij.
72
00:07:33,040 --> 00:07:33,720
Ja, zeker.
73
00:07:33,720 --> 00:07:36,580
En je kan ook nooit altijd 100% de dekking hebben natuurlijk.
74
00:07:36,580 --> 00:07:39,260
En ook niet op deze relatief hele korte termijn.
75
00:07:39,260 --> 00:07:39,680
Ja.
76
00:07:39,680 --> 00:07:44,600
Waar ik nog wel benieuwd naar ben, want jullie omarmen eigenlijk dit.
77
00:07:44,600 --> 00:07:48,560
Dus jullie hadden bijvoorbeeld vorig jaar al de eerste verjaardag van ChatGPT.
78
00:07:48,960 --> 00:07:51,720
Het feit dat je dat als hogeschool zeg maar zo hebt omarmd.
79
00:07:51,720 --> 00:07:54,820
Geldt dat voor alle hogescholen?
80
00:07:54,820 --> 00:08:02,260
Dat zou ik niet direct een antwoord op geven.
81
00:08:02,260 --> 00:08:09,040
Wat ik wel zie is dat ook binnen de hogescholen er best wel meerdere stromingen zijn.
82
00:08:09,040 --> 00:08:10,120
Ja, daaruit.
83
00:08:10,120 --> 00:08:12,640
Je hebt natuurlijk de early adapters.
84
00:08:12,640 --> 00:08:15,180
Ik ben een van de fanatiekelingen die het gebouw op school.
85
00:08:15,180 --> 00:08:16,180
Dat zou je niet verrassen.
86
00:08:16,900 --> 00:08:28,760
Ja, vanuit cognitieve gedrag aspecten zijn er toch nog veel mensen bij mij als docent, als onderzoekers.
87
00:08:28,760 --> 00:08:33,080
Die hier vraagtekens bij zetten en die er uitermate behoedzaam in zijn.
88
00:08:33,080 --> 00:08:37,960
Dus ik moet zeggen, de snelheid waarmee de adoptie plaatsvindt.
89
00:08:37,960 --> 00:08:42,780
Als je me dat een jaar geleden had gevraagd, dan was ik nogal ontevreden cynisch geweest.
90
00:08:42,780 --> 00:08:54,840
Als ik zie hoe snel het nu gaat, ook, en daar ben ik van Winden zijn heel erg trots op, ook de halfvolle glas benadering van, we gaan niet het verbieden om dat.
91
00:08:55,120 --> 00:08:57,360
Maar we staan er toe want en mits.
92
00:08:57,360 --> 00:08:58,040
Oh ja.
93
00:08:58,040 --> 00:09:02,140
En dat is toch wel een benadering die ik ook her en der proef.
94
00:09:02,140 --> 00:09:15,060
Waarbij met name ook het zetten van kanttekeningen en het ook studenten bewust maken van wat de mogelijkheden, onmogelijkheden en ook de risico's zijn van hetgeen wat ze doen.
95
00:09:15,060 --> 00:09:17,500
Ja, dat is wel een belangrijke taak van ons als opleiders.
96
00:09:17,980 --> 00:09:29,120
En ik denk dat die want en mits best wel heel interessant kunnen zijn voor de luisteraars, omdat die, ja het is vrij breed, die zitten ook in het bedrijfsleven, komen niet alleen in het onderwijs.
97
00:09:29,120 --> 00:09:31,860
Dus wat is dan de AI inzetten want?
98
00:09:31,860 --> 00:09:37,480
In principe staan wij het gebruik van AI toe.
99
00:09:37,480 --> 00:09:39,660
En de mits is als het van de docent mag.
100
00:09:39,660 --> 00:09:40,240
Oh ja.
101
00:09:40,620 --> 00:09:41,400
Dat is één.
102
00:09:41,400 --> 00:09:50,160
En als een student ook actief is voor een bedrijf, voor een organisatie, in onderwijsatermeb heet dat het werkveld, daar moet ook toestemming worden gegeven.
103
00:09:50,160 --> 00:09:53,420
Die toestemming dient vooraf bekend te zijn.
104
00:09:53,420 --> 00:10:01,620
En de student dient het ook aan te geven dat hij of zij dit ook als tools gaat gebruiken.
105
00:10:01,620 --> 00:10:08,660
En laatst en zeker niet het minste, de student blijft staan voor wat heet de academische integriteit.
106
00:10:08,660 --> 00:10:19,120
Wat Chique Nederlands is van het product dat opgeleverd wordt, blijft haar of zijn product waar hij of zij ook op beoordeeld wordt.
107
00:10:19,120 --> 00:10:19,840
Dat is allemaal niet.
108
00:10:19,840 --> 00:10:23,580
Ja, dat is eigenlijk wel een hele mooie, want ik denk dat dat in de breedte geldt.
109
00:10:23,580 --> 00:10:28,380
Dat als je dit in het bedrijfsleven inzet, denk dat de want en de mits eigenlijk precies hetzelfde zijn.
110
00:10:28,380 --> 00:10:33,660
Maar de transparantie is dan wel mooi dat die dan zo van tevoren is afgesproken.
111
00:10:33,660 --> 00:10:34,420
Ja.
112
00:10:34,420 --> 00:10:36,220
Interessant.
113
00:10:37,720 --> 00:10:41,060
Om terug te komen op de Community of Practice.
114
00:10:41,060 --> 00:10:44,080
Waarom heet het de Community of Practice?
115
00:10:44,080 --> 00:10:54,080
Ik ben eigenlijk al mijn hele werkzame leven bezig om mensen die in iets geïnteresseerd zijn onderling met elkaar te verbinden.
116
00:10:54,080 --> 00:10:57,120
En dat is eigenlijk de essentie van de Community of Practice.
117
00:10:57,120 --> 00:11:00,120
Dat zijn mensen die passie voor een bepaald onderwerp hebben.
118
00:11:00,120 --> 00:11:05,680
En elkaar opzoeken en halen en komen brengen.
119
00:11:07,080 --> 00:11:12,700
En elk moment kan die rol omgewisseld worden.
120
00:11:12,700 --> 00:11:19,800
Je zoekt ook mensen die inderdaad ook die passie delen.
121
00:11:19,800 --> 00:11:25,260
De uitnodiging van de Community of Practice heb ik ook een paar externe sprekers uitgenodigd.
122
00:11:26,020 --> 00:11:27,440
AI is hot.
123
00:11:27,440 --> 00:11:28,600
In general AI is helemaal hot.
124
00:11:28,600 --> 00:11:30,740
Dus een vraag die regelmatig komt.
125
00:11:30,740 --> 00:11:32,260
Staat er ook een vergoeding tegenover?
126
00:11:32,260 --> 00:11:33,580
Het antwoord is nee.
127
00:11:33,580 --> 00:11:38,620
Want juist in de Community of Practice kom je om te delen.
128
00:11:39,360 --> 00:11:41,620
En delen pas niet.
129
00:11:41,620 --> 00:11:43,640
Zeg maar ook het vragen naar een financiële vergoeding.
130
00:11:43,640 --> 00:11:44,100
Precies.
131
00:11:44,100 --> 00:11:47,520
Dus dat is een beetje de lakmoespoef van hoe zit je in de wedstrijd.
132
00:11:47,520 --> 00:11:49,920
Wil je ook daadwerkelijk wat delen?
133
00:11:49,920 --> 00:11:51,400
Of kom je met een ander motief naartoe?
134
00:11:51,400 --> 00:11:51,820
Ja.
135
00:11:51,820 --> 00:11:56,140
Nou en die AI Do Week staat natuurlijk helemaal in het teken van delen.
136
00:11:56,140 --> 00:12:00,680
Zou je wat kunnen vertellen over het programma van die maandag?
137
00:12:00,680 --> 00:12:03,240
Daar kunnen mensen zich voor inschrijven.
138
00:12:03,240 --> 00:12:05,120
Wat kunnen ze dan eigenlijk verwachten?
139
00:12:05,700 --> 00:12:10,280
Nou om half vier beginnen we met een inloop op de campus.
140
00:12:10,280 --> 00:12:11,660
Vier uur gaan we beginnen.
141
00:12:11,660 --> 00:12:18,100
Dan zal Erik Fledderus de lector van het lectoraat waar ik actief ben.
142
00:12:18,100 --> 00:12:22,620
Samen met de burgemeester van Zwolle, Peter Snijders de aftrap doen.
143
00:12:22,620 --> 00:12:26,380
En dan hebben we in dat eerste uur een aantal plenaire sprekers.
144
00:12:26,380 --> 00:12:30,700
Inge Strijker, een collega van mij, gaat iets stellen over bias bij de Belastingdienst.
145
00:12:30,700 --> 00:12:32,360
Oh ja, interessant.
146
00:12:32,360 --> 00:12:33,620
In het kader van de toeslagen.
147
00:12:33,620 --> 00:12:35,280
Dat is zeker een interessante.
148
00:12:35,280 --> 00:12:40,360
Jan-Niek Bruijntjes is, die heb je eerder zien optreden een jaar geleden.
149
00:12:40,360 --> 00:12:43,240
Die heeft nog Willem-Alexander een hand te mogen geven.
150
00:12:43,240 --> 00:12:44,140
Is nu afgestudeerd.
151
00:12:44,140 --> 00:12:49,460
En als een soort terugkerende Heintje Davids blijft hij ook heel goed terugkomen.
152
00:12:49,460 --> 00:12:55,060
En zal nu delen van wat zijn zicht is op de ontwikkelingen van GenAI.
153
00:12:55,060 --> 00:12:58,620
Nadat hij nu drie maanden geleden is afgestudeerd.
154
00:12:58,620 --> 00:13:00,980
En werkzaam is in het bedrijfsleven.
155
00:13:00,980 --> 00:13:10,140
We hebben een van de directieleden van Meta die iets komt vertellen over hun taalmodel.
156
00:13:10,140 --> 00:13:12,640
Over de Raban Meta Wayfarer.
157
00:13:12,640 --> 00:13:14,160
Een heel mooi speeltje.
158
00:13:14,160 --> 00:13:20,380
Wat ik aan ieder kan aanraden om daar, als het toch Sinterklaas of Kerst wordt,
159
00:13:20,460 --> 00:13:21,800
wel ligt op je verlanglijstje te gaan.
160
00:13:21,800 --> 00:13:22,020
Oké.
161
00:13:22,020 --> 00:13:27,180
Daarna hebben we een zestal break-outs.
162
00:13:28,740 --> 00:13:31,920
In die break-outs gaat een studententeam.
163
00:13:31,920 --> 00:13:35,460
Mensen die op het vlak van prompt engineering een stap willen zetten.
164
00:13:35,460 --> 00:13:37,200
Die nemen hun een stapje mee.
165
00:13:37,200 --> 00:13:41,800
Er is een aparte sessie voor MKB ondernemers.
166
00:13:41,800 --> 00:13:47,780
Waarin vanuit de digitale werkplaats Annemiek gaat optreden.
167
00:13:47,780 --> 00:13:48,500
Annemiek Overweg.
168
00:13:48,500 --> 00:13:51,300
Samen met Frank Aldoven van Oost-NL.
169
00:13:51,640 --> 00:13:58,820
Die met name ook gaat uitleggen welke subsidies allemaal ook te krijgen zijn in termen van opleidingen, innovatie en wat iets meer.
170
00:13:58,820 --> 00:14:07,820
We hebben Raymond van de Hogeschool Utrecht bereid gevonden om zijn Feedback Champion te komen demonstreren.
171
00:14:07,820 --> 00:14:11,520
Een chatbot die hij gemaakt heeft voor het onderwijs.
172
00:14:12,080 --> 00:14:21,420
Er gaat een ander studententeam optreden die de laatste technologie thema's en trends op windesheim.tech kan zien.
173
00:14:21,420 --> 00:14:23,760
Om dat met de geïnteresseerde te delen.
174
00:14:23,760 --> 00:14:24,660
En last but the least.
175
00:14:24,660 --> 00:14:30,340
Jij Joop gaat met Niels aan de slag in het maken van een tweetal podcast.
176
00:14:30,340 --> 00:14:31,700
Eerste podcast.
177
00:14:31,700 --> 00:14:36,000
Dan gaan jullie aan de babbel met de burgemeester van Zwolle, Peter Snijders.
178
00:14:36,000 --> 00:14:39,440
En onze voorzitter van het college van bestuur, Inge Grimm.
179
00:14:39,440 --> 00:14:43,140
Met ons onderwerp van hoe kijken jullie tegen GenAI aan.
180
00:14:43,140 --> 00:14:45,380
Enerzijds voor de burger en anderzijds vanuit het onderwijs.
181
00:14:45,380 --> 00:14:47,480
En een tweede podcast.
182
00:14:47,480 --> 00:14:48,200
Ja.
183
00:14:48,200 --> 00:14:50,880
Die gaan we maken met Erik Fledderus, mijn lector.
184
00:14:50,880 --> 00:14:54,740
En daar is het onderwerp van mensgerichte AI.
185
00:14:54,740 --> 00:15:00,480
Dan zijn we ondertussen, is het zo rond half zeven, dan komen we terug.
186
00:15:00,780 --> 00:15:04,560
En dan is het een korte feedback over alles wat ervoor heeft plaatsgevonden.
187
00:15:04,560 --> 00:15:08,840
En dan is het tijd voor bier, bitterballen, rap, drankjes.
188
00:15:08,840 --> 00:15:10,760
Alle analoge dingen.
189
00:15:10,760 --> 00:15:11,680
Exact.
190
00:15:11,680 --> 00:15:13,440
En half acht sluiten we het weer.
191
00:15:13,440 --> 00:15:13,940
Leuk.
192
00:15:13,940 --> 00:15:14,280
Kijk.
193
00:15:14,280 --> 00:15:16,820
Nou ja, er is geen reden om niet te komen, toch?
194
00:15:16,820 --> 00:15:17,640
Ik dacht het niet.
195
00:15:17,640 --> 00:15:20,940
Zeker, want we hebben 380 plekken.
196
00:15:20,940 --> 00:15:23,880
We zijn nu al over de 250 inschrijvingen.
197
00:15:23,880 --> 00:15:28,200
Dus mocht je in de beurt zijn in Zolder op dat moment, voel je je vooral vrij.
198
00:15:28,200 --> 00:15:32,900
En je kan zowel via windesheim.tech als windesheim.ai.
199
00:15:32,900 --> 00:15:35,080
Daar vind je een linkje waar je je kan inschrijven.
200
00:15:35,080 --> 00:15:37,920
En ja, geachte burger.
201
00:15:37,920 --> 00:15:39,760
Het is van uw belastinggeld.
202
00:15:39,760 --> 00:15:42,920
Ja, dus maak er gebruik van.
203
00:15:42,920 --> 00:15:44,060
Gratis bitterballen.
204
00:15:44,060 --> 00:15:45,500
Dat is sowieso een mooie.
205
00:15:45,500 --> 00:15:53,160
We hebben ook wat, een nieuw item die ik met jou wil gaan uitproberen is het eigenlijk.
206
00:15:53,160 --> 00:15:55,140
We houden ook namelijk van vernieuwing.
207
00:15:56,740 --> 00:16:01,200
Dus het gaat er eigenlijk over, en daar kan je in de jingle een beetje over nadenken.
208
00:16:01,200 --> 00:16:07,260
Wat zou voor jou nou de ultieme droom zijn als je een AI zou mogen maken of laten maken?
209
00:16:07,260 --> 00:16:07,460
Ja.
210
00:16:08,420 --> 00:16:33,520
Dat is een hele leuke vraag.
211
00:16:33,840 --> 00:16:34,940
En ik heb er twee voor je.
212
00:16:34,940 --> 00:16:35,760
Oh, kijk.
213
00:16:35,760 --> 00:16:45,080
De eerste is een volgende golf die nog jong is, nog wat prematuur is, maar er wel aan gaat komen.
214
00:16:45,080 --> 00:16:48,200
Dan stel je voor, wij babbelen zo met elkaar.
215
00:16:48,200 --> 00:16:54,340
We hebben wat AI, agenten, agents die meeluisteren met ons.
216
00:16:54,600 --> 00:16:57,920
Een onderdeel van het gesprek is van, oké, daar moeten we eens wat verder over praten.
217
00:16:57,920 --> 00:17:00,540
Weet je wat, laten we eind volgende week moeten afzitten.
218
00:17:00,540 --> 00:17:07,980
En wat er dan zou kunnen gebeuren, is dat jou en mijn agent, zonder dat we er enige aandacht
219
00:17:07,980 --> 00:17:12,740
daar aan schenken, onderling met elkaar aan de babbel gaan en in ons beide agenda kijken,
220
00:17:12,740 --> 00:17:14,520
de context van het gesprek begrijpen.
221
00:17:15,060 --> 00:17:19,280
Ook weten, onze voorkeur kennen, van op welke locatie we willen zien en dat die afspraak
222
00:17:19,280 --> 00:17:21,160
eind volgende week er al gemaakt is.
223
00:17:21,160 --> 00:17:22,640
Ja, voordat we hier weggaan.
224
00:17:22,640 --> 00:17:29,300
Dat zou mij zo heerlijk lijken in plaats van het gedoe van data prikken of wat anders.
225
00:17:30,020 --> 00:17:33,080
Agentic AI, dat is onderweg, dat zit eraan te komen.
226
00:17:33,080 --> 00:17:36,020
Ja, en het tweede, ook die is onderweg.
227
00:17:36,020 --> 00:17:41,400
We zijn bezig met een aantal bedrijven om te kijken naar de humanoïde robot.
228
00:17:41,400 --> 00:17:42,140
Oh ja.
229
00:17:42,140 --> 00:17:42,920
De humanoids.
230
00:17:42,920 --> 00:17:45,280
Die worden...
231
00:17:45,280 --> 00:17:48,240
Menselijke robot, gewoon die net als ons beweegt.
232
00:17:48,240 --> 00:17:55,220
Met handen en voeten en benen en kan lopen en met jou en mij kunnen praten.
233
00:17:56,420 --> 00:18:01,520
Elon Musk heeft een maandje geleden in zijn evenement WeRobot, heeft hij de Optimus laten zien.
234
00:18:01,520 --> 00:18:03,700
Hij heeft een beetje de kluiten belazen, het bleek later.
235
00:18:03,700 --> 00:18:10,640
Er waren wat mensen die met een, ook met het realitybeeld, zeg maar de mondeling en communicatie deden.
236
00:18:10,640 --> 00:18:16,140
Maar het lied gaf een aardig beeld over dat van datgene wat mogelijk is.
237
00:18:16,140 --> 00:18:24,260
En de reden dat Musk daarmee kwam is dat in diezelfde periode een grote beurs in China was, in Shanghai,
238
00:18:24,780 --> 00:18:28,480
waarin enkele tientallen humanïde robots zijn getoond.
239
00:18:28,480 --> 00:18:32,660
Die worden nu in grote massa geproduceerd.
240
00:18:32,660 --> 00:18:37,480
En de prijs van die humanïde robots is ook heel erg omlaag aan het denderen.
241
00:18:37,480 --> 00:18:42,880
Van bedragen van misschien wel 200.000 dollar.
242
00:18:42,880 --> 00:18:45,700
Is nu de goedkoopste, Unitree.
243
00:18:45,700 --> 00:18:48,240
Die kostte 16.000 dollar.
244
00:18:48,780 --> 00:18:51,440
En die is nu al op de markt voor educatieve doeleinden.
245
00:18:51,440 --> 00:18:52,940
Is die te krijgen.
246
00:18:52,940 --> 00:19:00,360
En als je dat koppelt ook aan wat de bestuurders in China zich hebben voorgenomen.
247
00:19:00,360 --> 00:19:06,480
Die hebben een jaar of vier, vijf geleden bedacht van weet je wat, we gaan het beste overspoelen met elektrische auto's.
248
00:19:07,020 --> 00:19:08,100
Kijk wat er gebeurd is.
249
00:19:08,100 --> 00:19:14,800
Datzelfde plannetje hebben ze nu ook bedacht voor het ons overspoelen van deze robots.
250
00:19:14,800 --> 00:19:15,980
Waarom noem ik dat?
251
00:19:15,980 --> 00:19:18,040
Het uitruimen van de vaatwasser.
252
00:19:18,040 --> 00:19:19,460
Het inruimen van de vaatwasser.
253
00:19:19,460 --> 00:19:21,980
Dat zou maar wel lekker lijken om dat te doen.
254
00:19:21,980 --> 00:19:26,500
Het aannemen van een pakje als ik niet thuis ben.
255
00:19:26,640 --> 00:19:28,760
Wij hebben een hondje.
256
00:19:28,760 --> 00:19:31,740
Ik zit zelfs te denken aan, ons hondje wordt uitgelaten.
257
00:19:31,740 --> 00:19:36,980
In hoeverre dat vanuit andere aspecten allemaal wenselijk is.
258
00:19:36,980 --> 00:19:38,740
En dat dat goed is ook voor mijn...
259
00:19:38,740 --> 00:19:40,920
Ik klop nu even op mijn buik op.
260
00:19:40,920 --> 00:19:43,760
Maar de kilo's die erin zitten, dat is maar alle gekken op een stokje.
261
00:19:43,760 --> 00:19:49,680
Dit is een ontwikkeling die in de komende drie tot vijf jaar tot grote wasdom gaat komen.
262
00:19:51,480 --> 00:20:11,540
En wat op zich mooi is, dat het een grote kans in zich heeft dat het gebrek aan medewerkerpotentieel, vergrijzing en dergelijke die we hebben, handen aan het bed in de zorg en dergelijke, wellicht voor een zeer belangrijk deel op dat punt kan gaan helpen.
263
00:20:11,540 --> 00:20:12,500
Ja, hoi.
264
00:20:12,500 --> 00:20:14,660
Dus ik ben dan meteen heel benieuwd.
265
00:20:14,660 --> 00:20:17,620
Ja, dat is twee best wel grote dromen.
266
00:20:17,620 --> 00:20:19,940
Het jaar waarbij de eerste al heel dichtbij is.
267
00:20:19,940 --> 00:20:24,640
Ja, wij bouwen natuurlijk ook dit soort agents.
268
00:20:24,640 --> 00:20:27,860
Het heeft natuurlijk wel wat voeten in de aarde.
269
00:20:27,860 --> 00:20:33,620
Van hoe test je dat, hoe zorg je dat ze ook dingen doen zoals je wil dat ze dat doen.
270
00:20:33,620 --> 00:20:38,600
Maar goed, het agentic systemen, die gaan eraan komen.
271
00:20:38,600 --> 00:20:40,040
Dat is in ieder geval duidelijk.
272
00:20:43,220 --> 00:20:54,520
Je zei van die maandag is eigenlijk een soort van voor jullie de tweede viering van, tweedejaars viering van CHGPT moet ik het goed zeggen.
273
00:20:54,520 --> 00:20:59,440
Wat is het verschil met het jaar daarvoor, met het eerste jaar?
274
00:20:59,440 --> 00:21:02,420
Dus het eerste jaar was natuurlijk iedereen helemaal hieper de pieper.
275
00:21:02,420 --> 00:21:05,180
Het jaar is voorbij gevlogen.
276
00:21:06,700 --> 00:21:12,660
Heb je daar een ontwikkeling gezien of verandering gezien ten opzichte van een jaar daarvoor?
277
00:21:12,660 --> 00:21:18,200
Ja, als je kijkt naar een jaar geleden was het iets nuanceren.
278
00:21:18,200 --> 00:21:19,840
Niet iedereen was hier bij de pieper.
279
00:21:19,840 --> 00:21:27,220
Er waren toen zeker heel veel sceptici die met name het glas half leeg betrachten.
280
00:21:28,820 --> 00:21:32,160
Dat laatste, die zijn er nog steeds.
281
00:21:32,160 --> 00:21:39,380
En dat is ook goed dat de dialoog plaatsvindt over wat kan, wat is wenselijk, wat is ethisch verantwoord.
282
00:21:39,380 --> 00:21:46,640
En dan praat ik ook meteen dat punt, aspecten rond de ethiek, rond de wetgeving.
283
00:21:46,640 --> 00:21:51,300
Dat zijn toch wel twee zaken waar het afgelopen jaar heel veel in is gebeurd.
284
00:21:51,300 --> 00:21:54,900
Denk aan de Europese AI Act, die nu al in play is.
285
00:21:56,300 --> 00:22:02,960
Overigens, goed voor de luisteraars, op begin februari 2025, dat is volgens mij over drie maanden,
286
00:22:02,960 --> 00:22:09,020
dan zullen wij allen die werken moeten kunnen aantonen, volgens die wet, dat wij AI geletterd zijn.
287
00:22:09,020 --> 00:22:09,940
Wat dat ook mogen zijn.
288
00:22:09,940 --> 00:22:10,220
Ja.
289
00:22:10,220 --> 00:22:12,100
Als eerste belangrijke stap.
290
00:22:12,100 --> 00:22:14,100
Dus ik ben benieuwd hoe jij dat gaat aantonen.
291
00:22:14,100 --> 00:22:17,660
Wij zitten daar inderdaad naar te kijken.
292
00:22:17,660 --> 00:22:21,800
Ik denk dat ik het redelijk kan aantonen.
293
00:22:21,800 --> 00:22:28,220
Maar even zonder gekheid, dat is echt wel een vraagstuk die er ligt.
294
00:22:28,220 --> 00:22:32,340
Dat is inderdaad, ergens zijn het een paar zinnetjes in die E-act waar dit staat.
295
00:22:32,340 --> 00:22:38,720
Dus zo gauw jij aan de slag gaat met AI, moet je de geletterdheid voldoende zijn.
296
00:22:38,720 --> 00:22:39,060
Ja.
297
00:22:40,180 --> 00:22:43,120
Wat zou jij verstaan onder de AI geletterdheid?
298
00:22:43,120 --> 00:22:45,800
Twee dingen.
299
00:22:45,800 --> 00:22:54,800
Naar verwachting hebben wij de volgende iteratie van de Windesheim AI app op 2 december beschikbaar.
300
00:22:55,040 --> 00:23:02,420
En daar zit een instrument in waarin jij voor jezelf kan meten, laten meten of jij AI geletterd bent.
301
00:23:02,420 --> 00:23:02,900
Ja.
302
00:23:02,900 --> 00:23:05,580
Een AI Literary scan, in slecht Nederlands.
303
00:23:05,580 --> 00:23:13,940
En als jij die succesvol afrent, dan gaat het ons wel lukken om jou ook een leuke badge op je LinkedIn profiel te geven.
304
00:23:13,940 --> 00:23:14,220
Oh ja.
305
00:23:14,220 --> 00:23:16,000
Dan heb je in ieder geval een stukje tastbaar bewijs.
306
00:23:16,000 --> 00:23:16,220
Ja.
307
00:23:17,040 --> 00:23:17,820
Wat is dat?
308
00:23:17,820 --> 00:23:21,680
Het is dat je de concepten voldoende doorgrond.
309
00:23:21,680 --> 00:23:26,660
Dat je ook begrijpt wat in deze contexten woorden als transparantie betekenen.
310
00:23:26,660 --> 00:23:36,420
Dat je ook begrijpt dat wat kan en mag en wat vooral niet mag dan wel niet wenselijk is.
311
00:23:36,420 --> 00:23:45,920
Het begrip van algoritme, wat dat is, zeker hoe dat ook in de organisatie waar je werkt van toepassing is.
312
00:23:46,500 --> 00:23:52,560
Je moet met name aan zulke soort zaken denken dat mensen qua AI bewust zijn.
313
00:23:52,560 --> 00:23:52,980
Ja.
314
00:23:52,980 --> 00:24:00,900
Veel beter begrip hebben gekregen van wat de mogelijkheden zijn, wat de impact zijn en ook de risico's zijn van het gebruik van AI.
315
00:24:00,900 --> 00:24:02,660
Wat hoort er niet bij?
316
00:24:02,660 --> 00:24:07,480
Nou, wat er niet bij hoort is frikandellen leren bakken.
317
00:24:07,480 --> 00:24:10,140
En ik denk niet dat je dat hoort.
318
00:24:10,140 --> 00:24:14,080
Dit gaat eigenlijk best wel ver.
319
00:24:14,360 --> 00:24:19,020
Want als je ook kijkt naar diezelfde wetten.
320
00:24:19,020 --> 00:24:25,860
En dat zal op een moment ook een stap gemaakt moeten worden voor het aanleggen van een algoritmeregister in je organisatie.
321
00:24:25,860 --> 00:24:30,140
En ik kan me voorstellen dat er heel veel organisaties zijn die denken waar hebben ze het over.
322
00:24:30,140 --> 00:24:36,460
Nou, als je kijkt naar het aantal applicaties wat een gemiddeld mkb bedrijf gebruikt.
323
00:24:36,640 --> 00:24:37,520
Dat zijn er zo'n 120.
324
00:24:37,520 --> 00:24:47,600
Dan zou het zomaar kunnen dat in een aantal van die applicaties ook zo'n algoritme eigenlijk embedded in die software zit die je gebruikt.
325
00:24:47,840 --> 00:24:56,360
Dat betekent dat je op dat moment al de plicht gaat krijgen om dat algoritme register voor jouw bedrijf, jouw organisatie op te stellen.
326
00:24:56,360 --> 00:24:59,500
Dat ook transparant te houden.
327
00:25:00,260 --> 00:25:08,320
Plus ook de processen zodanig dient in te richten dat, dat heet dan met een mooie kreet: de human in the loop, dat is mensgerichte AI.
328
00:25:08,320 --> 00:25:19,520
Dat het eigenlijk ook in zo'n situatie, dat het algoritme niet de baas is, maar dat mensen in jouw organisatie alsnog dat doorhebben, dat inzien.
329
00:25:19,620 --> 00:25:22,360
En ook qua verantwoordelijkheid daarin kunnen optreden.
330
00:25:22,360 --> 00:25:22,560
Ja.
331
00:25:22,560 --> 00:25:33,740
En volgens mij onder die geletterdheid valt ook dat je bijvoorbeeld, precies wat jij u zegt, dat je moet weten van, hey maar als er dus geen human in the loop zit, moet je er transparant over zijn.
332
00:25:33,740 --> 00:25:40,740
Dat iets wat je voor je neus krijgt, of een besluit wat genomen is, dat dat volledig door AI gegenereerd is.
333
00:25:42,180 --> 00:25:50,840
Of dat als je wel een human in the loop hebt, dat je, wat jullie eigenlijk ook met de studenten doen, die zeggen van, je bent dan zelf eindverantwoordelijk voor het product.
334
00:25:50,840 --> 00:25:58,400
Dus dat betekent dat als je er overheen bent gegaan, je redigeert bijvoorbeeld een tekst, je past dat aan, dan is het niet meer noodzakelijk dat je het meldt.
335
00:25:58,400 --> 00:26:04,360
Maar je bent wel, dat geldt voor beide kanten natuurlijk, eindverantwoordelijk voor het product.
336
00:26:04,360 --> 00:26:09,940
Maar bij het laatste hoef je weer niet te melden dat je met AI gewerkt hebt, bijvoorbeeld.
337
00:26:11,020 --> 00:26:15,820
Wat je nu ziet in het onderwijs, dat zijn een aantal stromingen.
338
00:26:15,820 --> 00:26:24,780
Eén stroming is het heel fanatiek, ik zou bijna zeggen, najagen in transparantie van het gebruik van AI.
339
00:26:24,780 --> 00:26:27,180
We willen een hele prompt zien die je gebruikt.
340
00:26:27,180 --> 00:26:31,080
Ik denk heel eerlijk dat het een tijdsverschijnsel is.
341
00:26:31,080 --> 00:26:38,420
Je kan qua analogie kan je het vergelijken met het moment dat de rekenmachine geïntroduceerd werd.
342
00:26:39,120 --> 00:26:44,960
Ja, daar vonden ook een aantal mensen, want onze vaardigheid als hoofdrekenaar, die zou wel terug gaan lopen.
343
00:26:44,960 --> 00:26:46,360
En die is ook wel terug gelopen.
344
00:26:46,360 --> 00:26:52,640
En eenzelfde analogie heb je met de spellchecker die er is geweest, dat onze taalvaardigheid zal gaan terug lopen.
345
00:26:52,640 --> 00:26:53,260
Dat is ook zo.
346
00:26:53,260 --> 00:26:58,640
Tegelijkertijd, de andere kant van de medaille, is dat de kwaliteit van de tekst, als je hem goed gebruikt, overigens,
347
00:26:59,220 --> 00:27:03,200
die is grandioos toegenomen.
348
00:27:03,200 --> 00:27:04,320
Ja, grappig is dat hè?
349
00:27:04,320 --> 00:27:09,240
Ja, en ik denk dat deze analogie ook toepassing is op deze tools die er nu zijn.
350
00:27:09,240 --> 00:27:11,560
Maar er zit wel een groot verschil bij.
351
00:27:11,560 --> 00:27:19,220
Dit is het eerste tool waar we in het verleden het heel normaal vonden dat iedereen aan het googlen was.
352
00:27:19,380 --> 00:27:22,480
Je kent het blijkbaar nog, het zoeken op.
353
00:27:22,480 --> 00:27:29,640
En dan krijg je een diarree aan linkjes waar je dan maar je weg in moest vinden.
354
00:27:29,640 --> 00:27:35,700
Wat je nu gaat krijgen, dat is het grote verschil, dat is niet een zoekmachine, maar een antwoordmachine.
355
00:27:35,900 --> 00:27:49,200
Die in staat is om jou op basis, mits je de goede vraag gaat stellen, eigenlijk heel snel een antwoord kan geven wat toch wel voor 85, 90% in één keer raak is.
356
00:27:49,200 --> 00:27:53,940
Ja, ik denk dat het alleen maar een mooie ontwikkeling is.
357
00:27:53,940 --> 00:27:57,580
Maar goed, nou ja, er is ook weerstand.
358
00:27:57,580 --> 00:28:02,900
Hoe is die, want je hebt het erover, van dat er in de organisatie ook wel wat weerstand was.
359
00:28:03,180 --> 00:28:06,340
Hoe is die overwonnen of hoe overwin je die?
360
00:28:06,340 --> 00:28:11,220
Dus ik ben nu een luisteraar en ik zit in een omgeving waar die weerstand is.
361
00:28:11,220 --> 00:28:16,580
Maar wat zouden 1, 2, 3 tips zijn hoe je aan die weerstand zou kunnen werken?
362
00:28:16,580 --> 00:28:21,980
Het is niet de verleden tijd was, het is de tegenwoordige tijd is.
363
00:28:21,980 --> 00:28:27,000
Die weerstand is er en dat is een goed ding.
364
00:28:28,360 --> 00:28:36,100
In elke organisatie is het goed dat er mensen aan beide kanten van het spectrum enthousiast zijn, dan wel veel weerstand tonen.
365
00:28:36,100 --> 00:28:42,780
Mits een dialoog tussen die, ik zou bijna zeggen, partijen ook blijven te bestaan.
366
00:28:42,780 --> 00:28:46,880
Een woord wat de afgelopen weken veel gebruikt is, verbinding.
367
00:28:46,880 --> 00:28:47,580
Ja, verbinding.
368
00:28:47,580 --> 00:28:50,580
Daar kunnen we een aparte podcast over maken.
369
00:28:51,180 --> 00:28:58,400
Je begrijpt wat ik bedoel, het met name elkaar blijven opzoeken en elkaar luisteren, elkaar ook respecteren.
370
00:28:58,400 --> 00:29:05,940
Dat iemand die zijn of haar moverende reden zegt, nu even niet.
371
00:29:06,500 --> 00:29:23,540
We wachten nog eventjes of vanuit mijn beeld of zeker daar waar van een hogeschool onderzoekers zijn die vanuit hun achtergrond een sterk belief,
372
00:29:23,540 --> 00:29:29,140
ik moet niet het woordje geloof gaan hebben, van deze vorm van bijvoorbeeld geven van onderwijs,
373
00:29:29,140 --> 00:29:34,020
cognitieve gedragingen van studenten beïnvloeden, dat kan de technologie niet overnemen.
374
00:29:34,020 --> 00:29:43,400
Ik denk dat het vinden van de nuance in deze en het goed luisteren van elkaars standpunt elkaar alleen maar kan versterken.
375
00:29:43,400 --> 00:29:52,460
Dat leidt ons direct eigenlijk naar ons kaartspel waar je inderdaad die verbinding zoekt, in ieder geval de dialoog zoekt.
376
00:29:52,460 --> 00:29:55,020
Dus ik wil ook een stelling aan jou voorleggen.
377
00:29:55,020 --> 00:29:55,580
Ja.
378
00:29:55,580 --> 00:30:17,400
Je zag het hè, ik deed even eentje naar achteren.
379
00:30:17,520 --> 00:30:24,180
Ik zal hem even lezen, want het was, we voorzien geen weerstand tegen de invoering van generatieve AI in onze organisatie.
380
00:30:24,180 --> 00:30:27,220
Nou, daar hebben we het allemaal over gehad.
381
00:30:27,220 --> 00:30:38,320
Een andere, uit de categorie technologie en innovatie, het succesvol implementeren van generatieve AI in productie vereist gespecialiseerde expertise.
382
00:30:39,380 --> 00:30:41,400
Ja en nee.
383
00:30:41,400 --> 00:30:49,880
Het laag hangend verhaalt op basis van de nu zeg maar de markt beschikbare hulpmiddelen, tools, instrumenten.
384
00:30:49,880 --> 00:30:51,240
Denk aan de ChatGPT.
385
00:30:51,240 --> 00:30:55,440
Of welk van de andere taalmodellen ook.
386
00:30:55,440 --> 00:30:58,760
Gemini van Google, Claude van Anthropic.
387
00:30:59,000 --> 00:31:04,920
Daarvan, mijn ervaring, mouwen opstropen en aan de slag gaan.
388
00:31:04,920 --> 00:31:23,980
In de vele workshops, inspiratiesessies die we de afgelopen jaren hebben gegeven, zie je ook dat als je de mensen op dat punt meeneemt, vanuit de gedachten op het voordoen, samen doen, zelf doen, dat het omarmen van die instrumenten dat relatief makkelijk gaat.
389
00:31:25,480 --> 00:31:41,240
Een ander aspect is, als je kijkt naar bestaande bedrijfsprocessen en bijvoorbeeld een intelligente chatbot op basis van je bedrijfseigen documentatie wil maken, die voor jou met jouw klanten gaat communiceren en de slag gaat.
390
00:31:41,920 --> 00:31:51,440
Daar kan je nu al vrij ver in komen, maar om dat echt robuust te maken, veilig te maken, goed door te testen.
391
00:31:51,440 --> 00:31:58,040
Want je wil toch niet, je wil toch voorkomen dat je daardoor juist geen klanten gaat verliezen, maar juist beter surft.
392
00:31:58,040 --> 00:32:03,600
Dat is een voorbeeld waar het goed is om ook een derde partij bij in te schakelen.
393
00:32:04,380 --> 00:32:13,200
Als je, je noemt heel specifiek generative AI, als je kijkt naar alle andere toepassingsmogelijkheden die er zijn.
394
00:32:13,200 --> 00:32:24,380
Ik kwam laatst een prachtige megaprompt tegen van drie A4'tjes waarmee je totaal een TED-talk kon genereren.
395
00:32:24,380 --> 00:32:27,500
Dat zijn dingen die bedenk je zelf niet.
396
00:32:27,500 --> 00:32:34,440
Maar goed, daar zijn weer allerlei naslagwerken, bibliotheken voor die je wel kunnen helpen.
397
00:32:34,440 --> 00:32:35,040
Leuk.
398
00:32:35,040 --> 00:32:38,760
Ik denk dat een mooi genuanceerd antwoord inderdaad.
399
00:32:38,760 --> 00:32:40,860
Ik zie dat ook zo.
400
00:32:40,860 --> 00:32:45,060
Want je zegt van inderdaad, de eerste tools, hoe zei je dat nou?
401
00:32:45,060 --> 00:32:46,520
Voor doen, na doen?
402
00:32:46,520 --> 00:32:47,780
Voor doen, zelf doen, samen doen.
403
00:32:47,780 --> 00:32:48,460
Mooi.
404
00:32:48,460 --> 00:32:59,080
We gaan, alles is wel aardig, in de AI Doe Week, je weet dat in het onderwijs wordt er nogal wat bezuinigd.
405
00:32:59,080 --> 00:33:01,580
En ook de studenten aantallen lopen terug.
406
00:33:01,580 --> 00:33:05,940
En wat ik heel mooi vind is dat we toch een zakje geld hebben kunnen vinden.
407
00:33:05,940 --> 00:33:11,720
Op 4 december gaan we 30 docenten in de trainingenmiddag stoppen.
408
00:33:12,800 --> 00:33:15,760
Waar ik ze mee mag nemen in het voordoen.
409
00:33:15,760 --> 00:33:18,940
En daarna gaan ze zelf aan de slag.
410
00:33:18,940 --> 00:33:21,700
En dan ga ik ze in de zaal zitten te helpen, het samen doen.
411
00:33:21,700 --> 00:33:23,400
En in het derde kunnen ze het zelf doen.
412
00:33:23,400 --> 00:33:23,960
Geweldig.
413
00:33:23,960 --> 00:33:29,380
Dat is een behoefte concept waarmee we ook de snelheid, waarmee we de kennis, de know-how,
414
00:33:29,380 --> 00:33:35,320
de ervaring binnen onze eigen organisatie eigenlijk exponentieel kunnen laten groeien.
415
00:33:35,320 --> 00:33:41,800
Want als we alle 30 daarna weer 5 sessies met 30 mensen hebben, dan begint het tegen ons om te lijken.
416
00:33:41,800 --> 00:33:42,920
Toch gaat de olie vlek hard.
417
00:33:42,920 --> 00:33:46,700
De sessie, we hebben 30 plekken, was binnen 48 uur uitverkocht.
418
00:33:46,700 --> 00:33:46,940
Zo.
419
00:33:46,940 --> 00:33:48,440
Netjes.
420
00:33:48,440 --> 00:33:51,940
En dat is eigenlijk ook iets wat mensen binnen hun eigen bedrijf kunnen doen.
421
00:33:51,940 --> 00:33:53,120
Gewoon inderdaad...
422
00:33:53,120 --> 00:33:53,920
Ambassadeurs vinden.
423
00:33:53,920 --> 00:33:54,360
Ja.
424
00:33:54,360 --> 00:34:00,120
Dat geeft ze ook toegang tot tools als ze daarmee willen spelen.
425
00:34:00,120 --> 00:34:06,600
Traint ze wel, begeleidt ze wel in de zin dat ze zich ook bewust zijn van alle risico's,
426
00:34:06,600 --> 00:34:09,160
alle ethische aspecten, alle juridische aspecten in deze.
427
00:34:09,300 --> 00:34:13,200
Maar dan zie je dat het binnen bedrijf heel snel kan gaan vliegen.
428
00:34:13,200 --> 00:34:13,920
Ja, mooi.
429
00:34:13,920 --> 00:34:21,020
En als we dit breder trekken, wat betekent de AI Doe Week voor de docenten en de studenten?
430
00:34:21,020 --> 00:34:24,500
Hoe bedoel je dat in welk context?
431
00:34:24,900 --> 00:34:28,680
Nou, ik hoorde van een balboekje.
432
00:34:28,680 --> 00:34:32,820
Dan is het eigenlijk best wel heel veel extern wat er gedaan wordt.
433
00:34:32,820 --> 00:34:39,060
Wat hebben de docenten en studenten er zelf aan aan deze AI Doe Week?
434
00:34:39,060 --> 00:34:43,860
Dat sowieso een beetje als AI ondernemer.
435
00:34:44,960 --> 00:34:46,620
ze een beetje naar voren duwen.
436
00:34:46,620 --> 00:34:46,960
Ja.
437
00:34:46,960 --> 00:34:48,340
Dat is toch wel...
438
00:34:48,340 --> 00:34:54,060
Ik moet zeggen dat er ook een vrij breed palet van activiteiten nu al op de rol staan.
439
00:34:54,060 --> 00:34:55,740
Dat varieert.
440
00:34:55,740 --> 00:34:57,700
Dat zal je ook niet verrassen.
441
00:34:57,700 --> 00:34:59,860
We hebben die app beschikbaar.
442
00:34:59,860 --> 00:35:04,400
En naast een geletterdheidsscan hebben we ook een maturityscan voor ondernemers.
443
00:35:04,620 --> 00:35:08,640
Dus dat team gaat vooral aan de slag van je ondernemers, kom maar langs.
444
00:35:08,640 --> 00:35:14,060
Dan gaan we jullie helpen om te kijken op welke punten jullie, zeg maar,
445
00:35:14,060 --> 00:35:21,260
met jullie voor jullie een routekaartje, een roadmap kunnen maken om een paar stappen daarin te zetten.
446
00:35:21,260 --> 00:35:21,660
Ja.
447
00:35:21,660 --> 00:35:25,200
Nou, het voorbeeld dat ik net gaf, een train de trainer, wat een hele andere is.
448
00:35:25,200 --> 00:35:26,060
Zeker.
449
00:35:26,060 --> 00:35:27,000
Weer een andere is.
450
00:35:27,000 --> 00:35:30,040
Ja, we willen toch wel met elkaar een dialoog aangaan.
451
00:35:30,040 --> 00:35:32,700
En dan heb je het over de andere kant van de bandbreedte.
452
00:35:33,100 --> 00:35:37,320
Over ethiek en de wenselijkheid van dit hele gebeuren.
453
00:35:37,320 --> 00:35:38,560
Nou, tot en met.
454
00:35:38,560 --> 00:35:47,720
We zijn in die zin een organisatie die een 28-tal onderzoeksclubs heeft, lectoraten.
455
00:35:47,720 --> 00:35:54,320
Het zou maar kunnen dat we ook naar een basisonderwijs gaan om te kijken van,
456
00:35:54,320 --> 00:36:00,220
goh, hoe kunnen jongens en meisjes met een functiebeperking of een leerachterstand ook met deze tool omgaan.
457
00:36:00,780 --> 00:36:03,600
Dus de toepassingsmogelijkheden zijn legio.
458
00:36:03,600 --> 00:36:11,260
En met name ook het hiermee zichtbaar maken dat er zo'n ongelooflijk breed palet van toepassingsmogelijkheden zijn.
459
00:36:11,260 --> 00:36:17,460
Ja, dat zal denk ik ook helpen om ook de adoptie, de acceptatie ook te hoeven snel.
460
00:36:17,880 --> 00:36:24,160
Ja, mooi dat je ook inderdaad zegt van, ja eigenlijk mensen met een afstand tot de technologie, want daar hebben we het dan over.
461
00:36:24,160 --> 00:36:28,180
Juist omdat het zo belangrijk is om te kijken van, hoe krijg je die erbij betrokken.
462
00:36:29,180 --> 00:36:30,760
Ja, dat triggeren we mee.
463
00:36:30,760 --> 00:36:43,360
Er is ondertussen al een vrij beroemd onderzoek geweest bij een 758-tal consultants-adviseur van een grote club in Amerika, Boston Consulting Groep.
464
00:36:43,360 --> 00:36:45,400
Harvard heeft dat gedaan.
465
00:36:46,000 --> 00:36:47,360
Ze hebben de club in tweeën gedeeld.
466
00:36:47,360 --> 00:36:53,160
De ene helft hebben ze twee uur tijd JetGPT4 opgeleid.
467
00:36:53,160 --> 00:36:57,000
Daarna hebben ze allebei hetzelfde opdracht gekregen.
468
00:36:57,000 --> 00:37:06,740
En JetGPT4 opgeleide club had 12% meer opgeleverd, 40% sneller en 25% hogere kwaliteit.
469
00:37:07,000 --> 00:37:09,320
Dat op zich is al fenomenaal als je dat bekijkt.
470
00:37:09,320 --> 00:37:13,200
Maar er kwam een tweede, voor mij een totaal onverwachte bijvangst erbij.
471
00:37:13,200 --> 00:37:22,920
Ze hebben ook de bovenste 50%, zeg maar de top performance, vergeleken met de onderste 50% bottom performance.
472
00:37:22,920 --> 00:37:31,580
En het bleek dat door de training op ChatGPT de kloof tussen die twee groepen vele malen kleiner is geworden.
473
00:37:31,580 --> 00:37:38,060
Dat vond ik vanuit een didactisch perspectief een hele mooie onverwachte bijvangst.
474
00:37:38,060 --> 00:37:43,160
Dat je dus op die manier niet alleen maar de allerbeste nog veel beter maakt.
475
00:37:43,160 --> 00:37:44,360
De rijker rijker maakt.
476
00:37:44,360 --> 00:37:45,100
Ja, precies.
477
00:37:45,100 --> 00:37:47,720
Maar dat veel meer naar elkaar toe groeit.
478
00:37:47,720 --> 00:37:48,740
Ja, wat mooi.
479
00:37:48,740 --> 00:37:50,860
Het nivelleert uiteindelijk gewoon die kloof.
480
00:37:50,860 --> 00:37:53,120
Ja, mooi om te zien.
481
00:37:53,120 --> 00:37:57,180
Wat zou je de mensen willen oproepen?
482
00:37:57,180 --> 00:38:01,380
Zetten ze direct de podcast uit?
483
00:38:01,380 --> 00:38:01,780
Ja.
484
00:38:01,780 --> 00:38:03,480
Wat moeten ze gaan doen?
485
00:38:03,480 --> 00:38:08,980
Behalve uiteraard zich inschrijven voor de Community of Practice Generatieve AI.
486
00:38:08,980 --> 00:38:09,580
2 december.
487
00:38:09,580 --> 00:38:11,700
2 december, half 4 begint het.
488
00:38:11,700 --> 00:38:13,080
Ja, doe dat.
489
00:38:13,080 --> 00:38:23,060
Verder, mocht je hierdoor geïnspireerd zijn geraakt en ook een evenement voor de AI DoeWeek wil aanmerken.
490
00:38:23,920 --> 00:38:24,600
Dat kan.
491
00:38:24,600 --> 00:38:25,340
Meld je aan.
492
00:38:25,340 --> 00:38:33,020
Via windesheim.ai/DoeWeek vind je een Google-form wat je kan invullen.
493
00:38:33,020 --> 00:38:36,060
En daarmee kom je ook in het balboekje terecht.
494
00:38:36,060 --> 00:38:37,400
Dan word je ook zichtbaar voor je omgeving.
495
00:38:38,540 --> 00:38:39,760
En dat is ook het doel.
496
00:38:39,760 --> 00:38:43,360
En dit is de eerste keer dat we dit initiatief nu oppakken.
497
00:38:43,360 --> 00:38:52,680
Dus we zijn ook heel erg benieuwd of jij, de luisteraar, ons ook kan verrasten met evenementen die we totaal niet hadden voorzien.
498
00:38:52,680 --> 00:38:53,380
En hartstikke leuk.
499
00:38:54,320 --> 00:38:56,680
Dat lijkt me een hele mooie uitdaging.
500
00:38:56,680 --> 00:39:00,400
Dank je wel Rob dat je dit bent komen toelichten.
501
00:39:00,400 --> 00:39:00,760
Graag gedaan.
502
00:39:00,760 --> 00:39:04,700
Ik hoop dat het een hele mooie week gaat worden met een mooie aftrap.
503
00:39:04,700 --> 00:39:06,240
Wij zijn er in ieder geval.
504
00:39:06,240 --> 00:39:09,480
En ja, dus nogmaals, geef je op.
505
00:39:09,480 --> 00:39:15,760
Het is, zeg maar, als het net zo leuk is als vorig jaar of leuker, dan kan ik het absoluut aanraden.
506
00:39:19,600 --> 00:39:21,000
Dank je wel weer voor het luisteren.
507
00:39:21,000 --> 00:39:25,760
Wil je niks missen, zorg dan dat je je abonneert via je favoriete podcast app.
508
00:39:25,760 --> 00:39:28,160
En dan krijg je vanzelf een seintje bij een nieuwe aflevering.
509
00:39:28,160 --> 00:39:29,260
Tot de volgende keer.
510
00:39:29,260 --> 00:39:33,100
[Muziek]