AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E35 - AI in het hoger onderwijs: hoe universiteiten veranderen
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Vanessa Abel leidt AI-integratie aan de Erasmus Universiteit en Jos van Dongen bouwt praktische toepassingen in het Data Collaboratory. Zij zien dat de meeste organisaties beginnen met "welke AI-tool kiezen we", terwijl de echte vraag is hoe je Artificial Intelligence integreert zonder mensen te vergeten. Hun aanpak toont wat er gebeurt als je AI-implementatie ziet als fundamentele verandering in plaats van technisch project.
Docenten verschuiven van kennisoverdrager naar coach, studenten leren kritisch denken over AI-output in plaats van alleen prompten, en de universiteit wordt een levenslang ecosysteem. Morgen kun je beginnen met hun vier geletterdheidstypen: digitaal, AI, data en privacy - en de vraag stellen wat jouw rol wordt als AI het routinewerk overneemt.
Onderwerpen
- De veranderende rol van docenten: van kennisoverdracht naar coaching en curatie in het AI-tijdperk
- Digitale en AI-geletterdheid: kritisch denken en soft skills als kernvaardigheden voor studenten
- Praktische AI-toepassingen in onderwijs: van chatbots tot autonome research-agents zoals AutoCRISP
- De toekomst van hoger onderwijs: van diploma-fabriek naar levenslang leerecosysteem
- Verantwoorde AI-implementatie: balans tussen innovatie en onderwijskwaliteit
- Podcast: AIToday Live podcast
- Opleidingsinstituut: Erasmus University Rotterdam
- Organisatie: Erasmus Data Collaboratory House of AI
- Framework: CRISP-DM
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Erasmus Universiteit - Data Collaboratory - ChatGPT - AutoCRISP - CRISP-DM
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:03,839
Studenten op de Erasmus Universiteit gebruiken AI voor hun werk.
2
00:00:03,839 --> 00:00:09,480
Docenten passen hun lessen aan, een hele universiteit verandert door deze technologie.
3
00:00:09,480 --> 00:00:16,000
Vanessa Abel leidt het AI-integratieprogramma dat kijkt hoe deze verandering menswaardiger kan.
4
00:00:16,000 --> 00:00:21,039
Jos van Dongen leidt het Data Collaboratory House of AI bij dezelfde universiteit.
5
00:00:21,039 --> 00:00:26,440
Hij bouwt toepassingen en organiseert workshops voor docenten die hun coachrol moeten leren.
6
00:00:26,440 --> 00:00:28,320
Hier zijn Vanessa en Jos.
7
00:00:30,159 --> 00:00:33,199
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
8
00:00:33,199 --> 00:00:35,999
Joop: Ik ben Joop Snijder, Head of AI voor Info Support.
9
00:00:35,999 --> 00:00:38,960
Niels: En ik Niels Naglé, Area Lead Data & AI bij Info Support.
10
00:00:39,839 --> 00:00:44,880
Joop: We hebben vandaag twee gasten in de studio, Jos van Dongen, Vanessa Abel zeg ik het goed.
11
00:00:45,760 --> 00:00:48,239
Joop: Normaal gesproken vraag ik dat eigenlijk eerst even van tevoren.
12
00:00:48,240 --> 00:00:50,400
Joop: Maar dat hebben we jou niet gedaan, sorry daarvoor.
13
00:00:50,720 --> 00:00:53,920
Joop: Voordat we beginnen, zouden jullie je eerst even willen voorstellen.
14
00:00:53,920 --> 00:00:55,760
Joop: Vanessa, als jij zou willen beginnen.
15
00:00:55,999 --> 00:00:57,999
Vanessa: Ik ben Vanessa Abel.
16
00:00:59,520 --> 00:01:06,320
Vanessa: En als mens zijnde ben ik altijd geïnteresseerd geweest in technologische innovatie.
17
00:01:06,880 --> 00:01:12,560
Vanessa: En op dit moment leidt ik als programmamanager AI een integratieprogramma.
18
00:01:12,560 --> 00:01:15,679
Vanessa: Een AI-integratieprogramma voor de Erasmus Universiteit.
19
00:01:17,039 --> 00:01:21,520
Jos: Jos van Dongen, directeur van de Erasmus Data Collaboratory House of AI.
20
00:01:22,480 --> 00:01:23,759
Jos: Helemaal vol.
21
00:01:24,399 --> 00:01:29,600
Jos: Laatste tijd vooral met dat laatste deel bezig, ook in het kader van het AI-integratieprogramma.
22
00:01:31,200 --> 00:01:37,359
Jos: Het leidt twee teams, één meer gericht op data en AI, andere op immersive technologies.
23
00:01:38,000 --> 00:01:42,559
Joop: Wat zijn, ik denk dat niet iedereen de term immersive technologies kent.
24
00:01:42,560 --> 00:01:43,440
Joop: Wat is dat?
25
00:01:43,439 --> 00:01:51,359
Jos: Dat is de verzamelterm voor alles wat met virtual reality, augmented reality, mixed reality, holografie.
26
00:01:51,360 --> 00:01:55,039
Jos: Dus we hebben ook een holo room bij ons in het gebouw staan.
27
00:01:56,240 --> 00:01:58,479
Jos: En een holo box staat er ook nog.
28
00:01:58,559 --> 00:02:00,239
Joop: Wat is een holo box?
29
00:02:00,560 --> 00:02:08,000
Jos: Dat is een soort projectie van een 3D-projectie van objecten of mensen.
30
00:02:08,000 --> 00:02:15,759
Jos: Dus dan kun je ook iemand die aan de andere kant van de wereld de college aan het geven is, kun je laten zien alsof die er staat.
31
00:02:16,720 --> 00:02:19,919
Niels: Is dat ook zoals de artiesten nu op het podium soms staan, zo'n dingen.
32
00:02:20,080 --> 00:02:22,559
Jos: Ja, de holo box is wat beperkt als een klein ding.
33
00:02:22,559 --> 00:02:24,079
Jos: Maar daar moet je wel aan denken.
34
00:02:24,240 --> 00:02:25,440
Jos: Daar kunnen we een klein dansje in doen.
35
00:02:29,440 --> 00:02:32,959
Joop: Vanessa, zou je wat kunnen vertellen over het programma dat je leidt.
36
00:02:32,960 --> 00:02:43,280
Vanessa: Ja, we zijn bijna twee jaar geleden zijn we begonnen met het vormen van ontwikkelen van een AI-strategie.
37
00:02:43,440 --> 00:02:50,560
Vanessa: En het doel is op eigenlijk een menswaardige manier AI te integreren.
38
00:02:50,560 --> 00:02:55,680
Vanessa: Dus je moet je feitelijk voorstellen, AI, inderdaad, als tool is één onderdeel.
39
00:02:55,680 --> 00:02:58,880
Vanessa: En dat kan je ook zien als een implementatietraject.
40
00:02:58,880 --> 00:03:10,480
Vanessa: Maar waar we eigenlijk als universiteit naar aan het kijken zijn van hoe verandert onze manier van werken, hoe verandert het leren, hoe verandert de mens-machinerelatie.
41
00:03:10,480 --> 00:03:14,320
Vanessa: En dat wil je feitelijk direct toepassen om te kijken waar de waarde ligt.
42
00:03:14,640 --> 00:03:18,320
Joop: En is dat dan integreren in het onderwijs?
43
00:03:18,320 --> 00:03:21,359
Joop: Is dat integreren in het werk, is het integreren in de maatschappij.
44
00:03:21,359 --> 00:03:23,919
Vanessa: Het is eigenlijk alle drie.
45
00:03:23,919 --> 00:03:26,240
Vanessa: Het is onderwijs, onderzoek.
46
00:03:26,320 --> 00:03:29,919
Vanessa: Ook bedrijfsvoering voor een gedeelte.
47
00:03:30,560 --> 00:03:36,079
Vanessa: En vooral ook in onze samenwerking met externe partijen, dus ook de maatschappij.
48
00:03:36,079 --> 00:03:39,279
Joop: En welke verandering zie je nu al in het onderwijs dan?
49
00:03:41,120 --> 00:03:47,280
Vanessa: Ten eerste zien we heel veel dat studenten gebruik maken van Gen AI.
50
00:03:47,759 --> 00:03:49,599
Vanessa: Dat is de eerste verandering.
51
00:03:49,840 --> 00:03:52,799
Vanessa: En daar moeten ook docenten aan wennen.
52
00:03:53,120 --> 00:03:59,919
Vanessa: Je krijgt ook te zien dat docenten gaan wennen aan een andere manier van lesgeven.
53
00:03:59,919 --> 00:04:04,159
Vanessa: Feitelijk gaat het langzaam aan verschuiven naar een soort coach.
54
00:04:04,640 --> 00:04:08,959
Vanessa: In eerste instantie waren ze een zender van kennis.
55
00:04:09,280 --> 00:04:16,399
Vanessa: Kennis overdragen, maar nu ga je toch echt toe naar een bijna een curator en een coachrol.
56
00:04:17,039 --> 00:04:22,319
Vanessa: Dat zie je nog niet heel duidelijk, maar je ziet wel de beweging zich inzetten.
57
00:04:22,400 --> 00:04:27,439
Vanessa: En als laatste zie je ook nog, en dat zijn eigenlijk de grote ontwikkelingen op dit moment.
58
00:04:27,440 --> 00:04:38,240
Vanessa: Dat de vaardigheden die studenten nodig hebben voor de toekomst en de banen die gaan veranderen, dat die meer een rol gaan spelen.
59
00:04:38,639 --> 00:04:41,600
Vanessa: Misschien zelfs meer dan kennisoverdracht.
60
00:04:41,600 --> 00:04:44,800
Niels: En wat zijn dan die vaardigheden die ze echt nodig gaan hebben?
61
00:04:44,800 --> 00:04:53,440
Vanessa: Ja, dat kan per opleiding verschillen, maar door de bank genomen moet je denken aan digitale geletterdheid, zoals we dat noemen.
62
00:04:53,440 --> 00:04:57,760
Vanessa: En dan moet je denken aan AI-geletterdheid, datageletterdheid.
63
00:04:57,759 --> 00:05:03,680
Vanessa: En ook privacygeletterdheid, want je moet weten wat je wel en niet in de tools kan stoppen.
64
00:05:04,239 --> 00:05:07,520
Vanessa: En verder moet je meer denken aan soft skills.
65
00:05:07,520 --> 00:05:14,800
Vanessa: Dus communicatie, dingen presenteren, ook visualiseren, samenwerken, kritisch denken.
66
00:05:14,800 --> 00:05:19,519
Vanessa: Vooral dat laatste wordt ook op de universiteit heel erg gepromoot.
67
00:05:19,519 --> 00:05:21,279
Vanessa: En dat willen we vooral nu.
68
00:05:21,359 --> 00:05:22,880
Vanessa: Met name door AI.
69
00:05:22,880 --> 00:05:36,680
Vanessa: En alles wat eruit komt, en willen we vooral dat de studenten die ze heel erg gaan kijken naar wat voor output creëert deze AI en wat daarvan is waar of niet waar kan ik gebruiken en hoe pas ik het toe.
70
00:05:37,240 --> 00:05:40,359
Niels: En hoe train je dat, dat kritisch denken?
71
00:05:40,360 --> 00:05:46,360
Niels: Want ja, we hebben het hier vaker over gehad en we vinden het heel belangrijk onderwerp, maar hoe leid je studenten daarin op?
72
00:05:47,000 --> 00:05:54,440
Vanessa: Dat gebeurt op dit moment feitelijk door studenten door te laten vragen in de vorm van een reflectie.
73
00:05:55,000 --> 00:05:56,920
Vanessa: Wat voor output wordt nu gecreëerd?
74
00:05:56,920 --> 00:06:02,279
Vanessa: Hoe zorg je ervoor dat datgene wat er wordt gezegd dat je dat dubbelcheckt.
75
00:06:02,599 --> 00:06:04,839
Vanessa: Waarom zou dit waar zijn en niet waar?
76
00:06:04,839 --> 00:06:08,039
Vanessa: Dus je haalt verschillende invalshoeken erbij.
77
00:06:08,040 --> 00:06:12,759
Vanessa: En die ga je in de vorm van een reflectie ga je feitelijk testen.
78
00:06:13,240 --> 00:06:15,800
Vanessa: En eigenlijk doorvragen op die manier.
79
00:06:15,800 --> 00:06:23,240
Joop: Ik heb vorige week heb ik er een vorige week had ik een aflevering de deur uit gedaan.
80
00:06:23,240 --> 00:06:25,240
Joop: Ja, dat is trouwens wat langer geleden.
81
00:06:25,560 --> 00:06:28,599
Joop: Wanneer we dit opnemen, er zit wat tijd tussen.
81
00:06:28,599 --> 00:06:32,840
Joop: Maar een tijdje geleden laat ik het zo zeggen, heb ik een aflevering gedaan over kritische denken.
82
00:06:32,839 --> 00:06:34,519
Joop: En daar gaat dit ook over.
83
00:06:34,519 --> 00:06:42,519
Joop: Maar is dit deel wat jij vertelt, is dat eigenlijk wel kritisch denken of is dat gewoon nakijken, reviewen van het werk wat je gedaan hebt.
84
00:06:42,759 --> 00:06:46,039
Vanessa: Nee, het gaat wel een laag dieper.
85
00:06:46,360 --> 00:06:51,240
Vanessa: Nakijken is wat mij betreft dat kan je ook door een AI tool laten doen.
86
00:06:51,560 --> 00:07:03,240
Vanessa: Maar als het echt gaat om de kern van waar de kennis vandaan komt, hoe dat is samengesteld, hoe dat zijn toepassing vindt in de echte wereld.
87
00:07:03,240 --> 00:07:09,959
Vanessa: Daar moet je toch echt wel wat meer over na gaan denken en dan eens nakijken, dat komt niet meer daaraan te pas.
88
00:07:10,120 --> 00:07:12,280
Vanessa: Een stapje verder de lagen diep.
89
00:07:12,759 --> 00:07:14,280
Joop: En hoe moet ik dat dan zien?
90
00:07:14,280 --> 00:07:15,880
Joop: Wat gebeurt er dan?
91
00:07:17,560 --> 00:07:19,480
Joop: Wat is die diepere laag?
92
00:07:20,759 --> 00:07:21,800
Vanessa: Wij doen dat nu.
93
00:07:22,040 --> 00:07:29,240
Vanessa: Daar zijn we dus met pilots zijn we bezig om te kijken van hoe kunnen studenten op een andere manier kritisch gaan denken.
94
00:07:29,240 --> 00:07:31,959
Vanessa: En dan dat gebeurt vaak in de vorm van reflectie.
95
00:07:31,959 --> 00:07:39,240
Vanessa: En daar komt bijvoorbeeld ook vanuit de filosofiehoek komen daar theorieën, filosofieën aan te pas.
96
00:07:39,240 --> 00:07:43,159
Vanessa: En die kan je feitelijk toepassen op een casus.
97
00:07:43,800 --> 00:07:50,120
Vanessa: En dan krijg je echt ook wel een vorm van interdisciplinair denken.
98
00:07:50,599 --> 00:07:58,039
Vanessa: En aangeven van vanuit welke invalshoek ga je eigenlijk nu handelen en waarom?
99
00:07:58,279 --> 00:08:00,280
Vanessa: En is dat wel de juiste keuze?
100
00:08:00,280 --> 00:08:03,079
Vanessa: Het is ook een vorm van keuzes maken.
101
00:08:03,560 --> 00:08:13,799
Vanessa: En daar moet je studenten in die zin in de vorm van essays in de vorm van dialoog onderling peer to peer learning in gaan trainen.
102
00:08:14,040 --> 00:08:19,159
Joop: Maar dan schrijven ze ook over de reflectie, over de reflectie, of dat of zie ik dat dan verkeerd?
103
00:08:19,800 --> 00:08:26,279
Vanessa: Ze schrijven over eventuele output van een AI model.
104
00:08:26,759 --> 00:08:30,360
Vanessa: Op basis van een theorie.
105
00:08:30,920 --> 00:08:36,599
Vanessa: En vervolgens moeten zij gaan aangeven van uit welke invalshoek is dit beredeneerd.
106
00:08:36,759 --> 00:08:38,519
Vanessa: Is dit volledig?
107
00:08:38,679 --> 00:08:40,600
Vanessa: Kunnen dat testen in de praktijk?
108
00:08:40,600 --> 00:08:43,400
Vanessa: Hoe gaan we dat testen, welke data komen daaraan te passen.
109
00:08:43,399 --> 00:08:45,320
Vanessa: Dus zo ga je steeds dieper lagen.
110
00:08:45,320 --> 00:08:48,599
Vanessa: En dat wil ik dus met dit gaat verder dan nakijken.
111
00:08:48,680 --> 00:08:50,360
Joop: Nee, dan begrijp ik het ook.
112
00:08:50,360 --> 00:08:51,480
Joop: Dankjewel daarvoor.
113
00:08:51,800 --> 00:08:53,400
Niels: Ik was nog even nieuwsgierig.
114
00:08:53,399 --> 00:08:55,640
Niels: Je zegt van verschillende perspectieven bekijken.
115
00:08:55,639 --> 00:09:05,560
Niels: Zie je daar ook een beweging dat er dus meer verschillende onderwijsdisciplines bij elkaar gaan komen om die perspectieven bij elkaar te brengen en daar van elkaar te leren, of is dat is dat nog wat verder in de toekomst?
116
00:09:05,560 --> 00:09:06,520
Vanessa: Het is het is een hoop.
117
00:09:06,520 --> 00:09:08,680
Vanessa: Het is mijn hoop in dit geval.
118
00:09:09,000 --> 00:09:17,320
Vanessa: Wat je nu ziet is dat de vragen die uit de maatschappij komen, de hulpvragen, die zijn complexer dan één discipline.
119
00:09:17,320 --> 00:09:18,839
Vanessa: Het is niet alleen maar economie.
120
00:09:18,839 --> 00:09:22,520
Vanessa: Het is niet alleen maar rechten.
121
00:09:23,240 --> 00:09:24,119
Vanessa: De wet.
122
00:09:24,119 --> 00:09:25,559
Vanessa: Het is breder dan dat.
123
00:09:25,560 --> 00:09:28,199
Vanessa: Dus je moet ook verder gaan kijken naar andere disciplines.
124
00:09:28,199 --> 00:09:34,520
Vanessa: En die moeten uiteindelijk wel als invalshoeken bij elkaar komen in een hopelijk interdisciplinaire vorm.
125
00:09:34,520 --> 00:09:38,440
Vanessa: Dus ik zie dat echt wel in de toekomst meer gebeuren.
126
00:09:38,440 --> 00:09:40,680
Vanessa: En vanwege de complexiteit.
127
00:09:41,000 --> 00:09:43,719
Vanessa: Maar ook vooral de snelheid van veranderingen.
128
00:09:43,959 --> 00:09:48,040
Joop: En Jos, hoe verhoudt jouw werk zich ten opzichte van die van Vanessa?
129
00:09:48,680 --> 00:09:50,519
Jos: Wij zijn meer het lab.
130
00:09:50,520 --> 00:09:54,840
Jos: Dus bij ons worden toepassingen ontwikkeld, workshops georganiseerd.
131
00:09:55,399 --> 00:10:04,599
Jos: Ook de docenten en academic directors meegenomen in die nieuwe ontwikkelingen om er inderdaad voor te zorgen dat ze die coaching een rol in kunnen vullen.
132
00:10:04,560 --> 00:10:08,440
Jos: Want je merkt de ontwikkelingen gaan echt bizar snel.
133
00:10:08,760 --> 00:10:18,560
Jos: En ik geef ook regelmatig tech-updates voor een gemeen publiek, ook voor onze IT-mens om te laten zien wat er allemaal kan.
134
00:10:18,719 --> 00:10:20,560
Jos: Mensen hebben geen idee.
135
00:10:20,560 --> 00:10:25,760
Jos: Dus ik een week weer een bijeenkomst en dan staat er.
136
00:10:26,879 --> 00:10:37,360
Jos: Ik zal het heel vaag houden, maar een docent vertelde van AI, nee, ik probeer er zo ver mogelijk van af te blijven, weet ik van, jij zit in dit vakgebied.
137
00:10:37,359 --> 00:10:43,199
Jos: Jouw werk bestaat over vijf jaar niet meer, heb je dat wel door, weet je wel wat er aan zit te komen.
138
00:10:44,479 --> 00:10:47,040
Joop: Hoe reageert zo iemand daar dan op?
139
00:10:47,359 --> 00:10:48,640
Jos: Verdedigend.
140
00:10:49,520 --> 00:10:50,880
Jos: Nee, dat kan niet.
141
00:10:51,440 --> 00:10:54,079
Jos: Ook gewoon de realiteit ontkennen.
142
00:10:54,079 --> 00:10:57,680
Jos: En ik zie, er zijn natuurlijk heel veel dingen mis met AI.
143
00:10:58,879 --> 00:11:08,400
Jos: Kijk alleen maar naar klimaatimpact en de hele financiële ellende, de privacy, de security, noem het allemaal op.
144
00:11:08,400 --> 00:11:12,640
Jos: Maar aan de andere kant, de toepassingsmogelijkheden zijn enorm.
145
00:11:12,640 --> 00:11:14,000
Jos: Zelfs nu al.
146
00:11:14,239 --> 00:11:22,880
Jos: Volgens mij komt die van, ik weet niet of die van jullie afkomt, maar de AI die je vandaag gebruikt, is de slechtste die je ooit zult zien, of waar je ooit mee zult werken.
147
00:11:23,199 --> 00:11:27,999
Jos: Als ik alleen al zie, een aantal problemen zijn al eigenlijk opgelost.
148
00:11:28,000 --> 00:11:34,799
Jos: Dus applicaties ontwikkelen, geen enterprise systemen, zover zijn we nog niet.
149
00:11:35,119 --> 00:11:44,959
Jos: Maar je kunt gewoon in een paar uur tijd een behoorlijk professioneel uitziend werkende toepassing kun je maken.
150
00:11:45,199 --> 00:11:47,360
Jos: En daar hoef ik geen programmeur voor te zijn.
151
00:11:48,079 --> 00:11:52,880
Joop: Dan wil je misschien zo direct op terugkomen, maar ik wil nog even naar dat onderwijs.
152
00:11:53,839 --> 00:11:59,199
Joop: Want wordt het onderwijs nou ook kwalitatief beter met AI?
153
00:12:01,760 --> 00:12:08,640
Jos: De tijd zal het leren, ik zou bijna zeggen Felienne, kom er maar even niet.
154
00:12:09,280 --> 00:12:11,440
Joop: Die spreken we dan aankomende tijd.
155
00:12:14,879 --> 00:12:17,680
Jos: De meningen erover zijn, zijn ernstig verdeeld.
156
00:12:17,680 --> 00:12:19,119
Joop: Ja, daarom vraag ik het ook.
157
00:12:19,359 --> 00:12:21,680
Joop: Want wordt er onderzoek naar gedaan?
158
00:12:24,079 --> 00:12:25,440
Vanessa: Ja, zeker.
159
00:12:25,920 --> 00:12:27,759
Vanessa: Waaronder dus Felienne.
160
00:12:31,040 --> 00:12:38,480
Vanessa: Maar er zijn meerdere vormen van onderzoek, ook gewoon in de praktijk op het gebied van ethiek.
161
00:12:39,920 --> 00:12:47,120
Vanessa: Is dit wel de wijze waarop we onze studenten onderwijs willen geven?
163
00:12:50,639 --> 00:12:57,279
Vanessa: En ik denk dat dat best wel existentiële vragen zijn voor het onderwijs.
162
00:12:57,760 --> 00:13:06,320
Joop Snijder: We zakken ook steeds verder weg in de lijstjes van hoe goed het onderwijs, of tenminste, hoe goed de leerlingen het doen ten opzichte van andere landen.
163
00:13:06,800 --> 00:13:12,800
Joop Snijder: En dan is het wel de vraag van voeg deze technologie dan wat toe.
164
00:13:13,280 --> 00:13:17,839
Vanessa: Dat is ook een van de belangrijkste onderdelen van dit programma.
165
00:13:18,000 --> 00:13:29,280
Vanessa: Op welk moment op welke manier kan AI waarde toevoegen in het onderwijs, maar ook voor onderzoek en voor het werk.
166
00:13:30,399 --> 00:13:35,199
Vanessa: En dat is op dit moment voor ons nog een groot vraagteken.
167
00:13:36,399 --> 00:13:44,640
Vanessa: Dat gaan we in de loop van de komende vier jaar hopelijk gaan we daarvoor de universiteit in ieder geval een antwoord op formuleren.
168
00:13:44,800 --> 00:13:50,640
Jos: Het ligt er denk ik ook aan hoe je de AI tools inzet.
169
00:13:55,359 --> 00:14:03,760
Jos: Als ik naar mezelf kijk, ik heb de afgelopen anderhalf jaar meer en sneller geleerd dan ooit daarvoor.
170
00:14:03,760 --> 00:14:09,120
Jos: Omdat je toegang hebt tot hele specifieke kennis op elk gewenst moment.
171
00:14:09,440 --> 00:14:11,040
Jos: Dat hebben we nooit gehad.
172
00:14:11,040 --> 00:14:17,440
Jos: Dus ook om een probleem op te lossen, ja, vroeger kan je gaan googlen als je heel lang bezig.
173
00:14:17,440 --> 00:14:19,599
Jos: Nu gaat dat veel sneller.
174
00:14:19,920 --> 00:14:29,440
Jos: Maar het is wel belangrijk om altijd heel kritisch te blijven, want ja, er wordt een oplossing gesuggereerd door naar AI van nou, waarschijnlijk is het dit aan de hand, probeer dit is.
175
00:14:29,599 --> 00:14:34,639
Jos: Ja, wacht eens even, als ik dit probeer, dan gaat waarschijnlijk daar wat omvallen, weet je dit wel heel zo.
176
00:14:34,719 --> 00:14:37,040
Jos: Oh ja, ja, ja, goed dat je dat aangeeft.
177
00:14:37,040 --> 00:14:47,560
Jos: Heel veel mensen zullen niet die kritische vraag stellen, of die toetsingsvraag van weet je zeker dat dit een goed idee is, of weet je zeker dat dit de laatste versie is, wacht eens even, ik weet zeker wat niet.
178
00:14:47,560 --> 00:14:49,519
Jos: Hier is de laatste versie.
179
00:14:49,520 --> 00:14:52,080
Jos: Oh, ja, die had ik even gemist.
180
00:14:53,040 --> 00:15:11,320
Jos: Het is toch niet perfect, maar het nut wat ik eruit haal, ja, dat overtreft alle negatieve effecten die ik voor mezelf zou kunnen krijgen als je wordt er ook aan de andere kant een beetje lui van.
181
00:15:12,599 --> 00:15:15,959
Jos: Ik kan heel goed schrijven, beter dan ik, zeker in het Engels.
182
00:15:15,959 --> 00:15:23,320
Jos: En dan heb ik ook drie boeken op mijn naam staan, ik ben ook steeds versteld van wat eruit komt gerold.
183
00:15:23,320 --> 00:15:32,600
Vanessa: Ik probeer me wel een beetje te verplaatsen in de positie van een student, net afkomstig van het VWO of HBO.
184
00:15:33,719 --> 00:15:37,479
Vanessa: Die heeft wat ervaring, maar nog niet veel ervaring.
185
00:15:37,719 --> 00:15:48,120
Vanessa: De universiteit is ervoor ingericht of voor op ingericht om mensen op te leiden, mensen die later de bedrijven gaan leiden, bedrijven gaan bouwen.
186
00:15:48,119 --> 00:16:01,400
Vanessa: Als je dan op dat moment vanaf het begin niet bepaalde handvatten, vaardigheden, kennis meekrijgt, omdat het allemaal op uitbesteedt.
187
00:16:01,400 --> 00:16:05,160
Vanessa: Dan kan ik me voorstellen dat het hele.
188
00:16:05,160 --> 00:16:10,360
Vanessa: Ik zou bijna willen zeggen adoptie zonder ziel is.
189
00:16:11,400 --> 00:16:13,880
Vanessa: En dat is wat we proberen te voorkomen.
190
00:16:13,879 --> 00:16:25,000
Vanessa: Dus dat je echt wel die menselijke kant, dat je die nog wel probeert te integreren in de methode waarop je iemand kan leren.
191
00:16:24,999 --> 00:16:30,920
Vanessa: Dus dat je niet volledig afhankelijk zou moeten of willen worden van alleen maar de technologie.
192
00:16:30,920 --> 00:16:35,640
Joop Snijder: En waar zit bij jou dan de scheidslijn tussen mens en machine op dit vlak?
193
00:16:36,440 --> 00:16:40,840
Vanessa: Ik zou hem eigenlijk als een soort versterking willen zien.
194
00:16:41,320 --> 00:16:43,000
Vanessa: Dat is het doel.
195
00:16:43,320 --> 00:16:45,959
Vanessa: Dus dat de technologie de mens gaat versterken.
196
00:16:45,959 --> 00:16:53,480
Vanessa: Dus daar waar jij eventueel tekort komt, of juist denk van nou daar wil ik me in verbeteren of ontwikkelen.
197
00:16:53,479 --> 00:16:57,560
Vanessa: Daar moet je de technologie dan eventueel voor kunnen inzetten.
198
00:16:58,680 --> 00:17:01,160
Joop Snijder: Met het doel om te liggen, ben ik helemaal eens.
199
00:17:01,160 --> 00:17:04,119
Joop Snijder: Onze nieuwsbrief heet bijvoorbeeld AI versterkte mensen.
200
00:17:04,280 --> 00:17:05,959
Joop Snijder: Zo proberen wij ook te kijken.
201
00:17:06,280 --> 00:17:11,800
Joop Snijder: Maar ik denk, weet je, als ik terugkijk naar mijn eigen studententijd.
202
00:17:11,800 --> 00:17:14,599
Joop Snijder: Laat ik dan zeggen dat de studenten om mij heen.
203
00:17:15,638 --> 00:17:16,920
Joop Snijder: Mooi mooi gezegd.
204
00:17:17,800 --> 00:17:20,280
Joop Snijder: Je zocht altijd de weg van de minste weerstand.
205
00:17:20,358 --> 00:17:21,319
Joop Snijder: Klopt.
206
00:17:22,280 --> 00:17:26,119
Joop Snijder: Daar zit zo direct een verschil tussen theorie en praktijk.
207
00:17:26,598 --> 00:17:28,920
Joop Snijder: Hoe zouden we daarmee om moeten gaan?
208
00:17:29,560 --> 00:17:31,160
Vanessa: Dit is even op persoonlijke titel.
209
00:17:33,560 --> 00:17:47,639
Vanessa: Ik denk dat je als universiteit moet gaan kijken naar een meer de theoretische kant, maar je moet vooral ook gaan kijken wat doet die praktijk en hoe kunnen we die praktijk dichter bij die theorie brengen.
210
00:17:48,200 --> 00:17:51,320
Vanessa: En daarin hebben we nog wel een slag te slaan.
211
00:17:53,079 --> 00:18:22,520
Vanessa: Ik denk ook dat als je een soort ecosysteem creëert voor de student in feite kan je een soort portfolio noemen, dat je en theorie combineert met de praktijk, dus een student kan wat een filosofievak volgen bij binnen de faculteit filosofie, maar kan ook binnen een HBO-instelling of de NBO-instelling een praktisch gerichte cursus volgen.
212
00:18:22,520 --> 00:18:28,840
Vanessa: Die combinatie, daarvan zeg ik van, die zie ik in de toekomst, ik hoop dat dat het geval kan zijn.
213
00:18:28,839 --> 00:18:35,800
Vanessa: Want dat verkleint mogelijk ook de combinatie of het onderscheid tussen mbo, hbo en WO.
214
00:18:35,800 --> 00:18:42,840
Vanessa: En dat je op die manier eigenlijk een compleet compleet lerende maakt.
215
00:18:42,839 --> 00:18:49,960
Vanessa: Dus niet alleen maar de theoretische kant, maar ook de praktische kant door middel van het opbouwen van het portfolio in de praktijk.
216
00:18:50,200 --> 00:18:52,040
Niels Naglé: Interessant, ja, interessante blik inderdaad.
217
00:18:52,040 --> 00:18:57,719
Niels Naglé: En dat zou dan ook de andere kant op kunnen gaan, dat HBO ook de filosofiekant erbij kan pakken vanuit de universiteit.
218
00:18:58,200 --> 00:18:59,959
Niels Naglé: Ja, dat is wel een mooie plek.
219
00:19:00,200 --> 00:19:06,280
Vanessa: Die samenwerking proberen we ook echt te zoeken met HBO en NBO-instellingen.
220
00:19:06,280 --> 00:19:07,800
Vanessa: Dat is wel even de doelstellingen.
221
00:19:07,800 --> 00:19:08,679
Vanessa: Ja, gebeurt het wel.
222
00:19:08,680 --> 00:19:11,560
Jos: Ik heb nu twee stagiaires van de Hogeschool Rotterdam.
223
00:19:11,560 --> 00:19:14,520
Jos: Een afstudeerder en een tweedejaars.
224
00:19:14,760 --> 00:19:18,359
Jos: En die tweedejaars zijn allebei net begonnen.
225
00:19:19,000 --> 00:19:22,840
Jos: Maar dat is de opleiding Applied Data Science en AI.
228
00:19:22,839 --> 00:19:32,199
Jos: En daar zeker die ethische kant en die filosofische kant, dat wat daar heel erg in benadrukt, moet ook meegenomen worden in de werkstukken.
226
00:19:32,200 --> 00:19:34,839
Jos: Dus ik liet even zien wat hij mee bezig was.
227
00:19:34,839 --> 00:19:36,599
Jos: En dan zie ik Foucault terugkomen.
228
00:19:36,599 --> 00:19:37,800
Jos: Ik zie Marx terugkomen.
229
00:19:41,159 --> 00:19:46,560
Jos: Wezig was van ja, maar je hebt natuurlijk ook over machtsverhoudingen, dan kom je dus weer op Foucault uit.
230
00:19:43,240 --> 00:19:48,879
Jos: Dus vind ik super dat hij dat gewoon meeneemt.
231
00:19:50,720 --> 00:20:01,839
Joop Snijder: Jij zei net iets over mededocent van misschien bestaat jouw vak niet meer, dat wordt ook wel een klein beetje al gezegd over de software engineer.
232
00:20:01,839 --> 00:20:04,239
Joop Snijder: Hoe kijk jij daartegen aan?
233
00:20:06,399 --> 00:20:14,400
Jos: Ja, een beetje dubbel, want je moet nog steeds wel weten wat je aan het doen bent en wat technologie kan en niet kan.
234
00:20:14,399 --> 00:20:15,520
Jos: Dus als je.
235
00:20:15,520 --> 00:20:17,599
Jos: Ik ben ooit begonnen als softwareontwikkelaar.
236
00:20:17,599 --> 00:20:21,040
Jos: Dus ik kan dat redelijk makkelijk weer oppakken.
237
00:20:22,000 --> 00:20:29,439
Jos: Maar als je helemaal blanco bent en je wilt appjes gaan bouwen, je krijgt best wel wat best wel wat in elkaar knutselen tegenwoordig.
238
00:20:30,639 --> 00:20:35,999
Jos: Maar ik maak me daar wel een beetje zorgen over dat de expert gaat verdwijnen.
239
00:20:36,960 --> 00:20:44,159
Jos: Ik hoef alleen maar naar mijn zoon te kijken, die is AI engineering lead bij een grote internationale organisatie.
240
00:20:44,159 --> 00:20:48,560
Jos: Die bouwt zelf heel veel software, die leidt ook die teams.
241
00:20:48,560 --> 00:20:52,720
Jos: En die zei laatst, ik heb al een half jaar zelf geen regelcode meer geschreven.
242
00:20:53,439 --> 00:20:57,359
Jos: Jij is echt helemaal into programming.
243
00:20:58,320 --> 00:21:00,239
Jos: Het is allemaal opus.
244
00:21:00,720 --> 00:21:02,159
Joop Snijder: En opa is de Claude model.
245
00:21:02,399 --> 00:21:08,159
Jos: Dat is een klant model een beetje de gold standard op het gebied van coding vandaag de dag.
246
00:21:08,639 --> 00:21:10,479
Jos: Dat was wel een eye-opener voor mij.
247
00:21:10,480 --> 00:21:17,999
Jos: Dus als hij al zelf geen software meer schrijft, maar wel in staat is om te beoordelen wat die software doet.
248
00:21:19,599 --> 00:21:20,639
Jos: Hij kan dat nog.
249
00:21:20,639 --> 00:21:22,719
Jos: En ik kan dat en heel veel mensen kunnen dat nog steeds.
250
00:21:22,720 --> 00:21:32,320
Jos: Maar als je op een gegeven moment steeds groter, straks heb je niet meer de experts die in staat zijn om te beoordelen of iets houtsnijdt of niet.
251
00:21:32,320 --> 00:21:34,159
Jos: Want dat hebben ze nooit geleerd.
252
00:21:34,159 --> 00:21:41,760
Jos: Die hebben nooit geleerd om zelf die code te schrijven, dat is ook precies het punt wat Feline maakt.
253
00:21:42,720 --> 00:21:49,679
Jos: Als je zelf nooit hebt geleerd om te programmeren, hoe kun je dan ooit vertrouwen op zo'n AI-tool.
254
00:21:50,000 --> 00:21:53,359
Joop Snijder: Maar als ik een beetje de advocaat van de duivels speel.
255
00:21:53,839 --> 00:21:56,239
Joop Snijder: Wij zijn ook ontwikkelaars.
256
00:21:57,839 --> 00:22:00,560
Joop Snijder: Ik weet ook helemaal niet hoe mijn auto werkt.
257
00:22:01,119 --> 00:22:07,439
Joop Snijder: En daar stap ik in, daar heb ik alle vertrouwen in, zolang allemaal zolang er geen lampjes gaan branden en dat soort dingen.
258
00:22:07,439 --> 00:22:12,399
Joop Snijder: Sterker nog, als er een lampje brandt waarvan ik denk, nou dat kan nog wel even, rij ik ook verder nog.
259
00:22:13,599 --> 00:22:14,640
Joop Snijder: Hoe erg is dat?
260
00:22:14,639 --> 00:22:16,720
Jos: En als het misgaat, dan bel je de ANWB.
261
00:22:17,680 --> 00:22:22,479
Joop Snijder: Dus als er nog een heel klein setje is van van mensen die experts zijn.
262
00:22:23,119 --> 00:22:24,800
Joop Snijder: Hoe erg is dat?
263
00:22:25,280 --> 00:22:29,040
Jos: En als er nou helemaal geen mensen, als er geen ANWB meer bestaat.
264
00:22:29,040 --> 00:22:32,320
Jos: Als we zo ver gaan in het vertrouwen op de technologie.
265
00:22:33,040 --> 00:22:36,479
Joop Snijder: Maar zolang de brand is, zullen de brand zal alles al de brandweer zijn, toch?
266
00:22:41,839 --> 00:22:43,439
Joop Snijder: Ik ben goed in deze rol.
267
00:22:47,919 --> 00:22:51,520
Jos: Dat is weer hetzelfde verhaal, een beetje een cirkelredenering.
268
00:22:52,639 --> 00:23:02,079
Jos: Die brandweer zul je inderdaad nodig hebben, maar op AI-gebied, wie gaat die brandweerrol vervullen straks, als we gewoon 100% vertrouwen op die techniek.
269
00:23:03,119 --> 00:23:08,000
Jos: Het gaat in 99,9% van de gevallen gaat het allemaal goed.
270
00:23:08,000 --> 00:23:11,679
Jos: Alleen die 0,001 vliegt die gierend uit de bocht.
271
00:23:11,839 --> 00:23:19,760
Jos: Maar er is niemand meer die in staat is om dat te fixen of te duiden of te kunnen onderzoeken wat er dan mis is gegaan.
272
00:23:20,000 --> 00:23:21,360
Jos: Waar zijn we dan in terecht?
273
00:23:21,679 --> 00:23:25,839
Joop Snijder: Dan bouwen we het misschien even opnieuw, want het gaat zo snel, jij kan dat.
274
00:23:27,760 --> 00:23:29,839
Joop Snijder: Deze rol ligt jou.
275
00:23:32,079 --> 00:23:33,920
Joop Snijder: In die zin is het een serieuze vraag.
276
00:23:36,159 --> 00:23:40,320
Joop Snijder: Ik hoor dit soort geluiden, wat op social media wordt gezegd en dat soort dingen.
277
00:23:40,320 --> 00:23:44,879
Joop Snijder: En ik kan me voorstellen als jij nu op het punt staat om een studie te kiezen.
278
00:23:45,680 --> 00:23:47,439
Joop Snijder: Laten we mensen omdraaien.
279
00:23:47,520 --> 00:23:54,320
Joop Snijder: Waarom zou het echt een goed idee zijn om vandaag de dag toch nog gewoon softwareengineering te gaan studeren.
280
00:23:54,959 --> 00:24:04,960
Jos: Omdat je dan in staat bent om de hulpmiddelen van de toekomst mede vorm te geven, dan ook richting aan te geven en jij wordt dan de expert.
281
00:24:05,280 --> 00:24:10,079
Jos: Aangezien die steeds zeldzamer gaan worden, kun je dat denk ik een leuke boter aan mee verdienen.
282
00:24:11,680 --> 00:24:19,839
Jos: Iets ander perspectief nog, we kijken altijd heel smal naar wat waar AI nu heel erg goed in is, bijvoorbeeld softwareontwikkeling.
283
00:24:20,079 --> 00:24:25,599
Jos: Er zijn nog honderdduizend beroepen waar je helemaal niks aan AI hebt.
284
00:24:26,240 --> 00:24:28,119
Jos: Mijn dochter is tandarts.
285
00:24:27,839 --> 00:24:32,119
Jos: Ik zie mezelf nog niet in de stoel liggen en behandeld worden door een robot.
286
00:24:35,560 --> 00:24:41,560
Jos: Nee, maar ook wat AI in dat soort studies kan doen, dat zie ik nog niet gebeuren.
287
00:24:41,560 --> 00:24:44,359
Jos: En zo kun je nog tientallen andere voorbeelden noemen.
288
00:24:44,359 --> 00:24:51,480
Jos: Dus we kijken inderdaad naar kenniswerk, naar filosofie naar rechten, naar eigenlijk de Social Sciences universiteit.
289
00:24:51,480 --> 00:25:01,399
Jos: Dus de EUR is eigenlijk wel een risicogebied als je zo als je er zo naar kijkt, want het is heel kennisgedreven, het zijn soft skills.
290
00:25:02,280 --> 00:25:08,199
Jos: Heel veel van de kennis die je daar opbouw, die kun je ook uit een AI-tool halen.
291
00:25:08,760 --> 00:25:10,839
Vanessa: De toepassing.
292
00:25:10,839 --> 00:25:18,599
Vanessa: Daar gaat het met name om als je die kennis toe, wat voor impact heeft het of waar gaat het impact krijgen en op wat voor manier.
293
00:25:19,399 --> 00:25:23,800
Vanessa: Dat zijn denk ik wel belangrijke sturingsvragen.
294
00:25:24,280 --> 00:25:27,479
Vanessa: Voor bestuurders, gemeenten bedrijven.
295
00:25:27,800 --> 00:25:31,399
Vanessa: En ik denk dat daar echt wel de toegevoegde waarde juist ligt.
299
00:25:31,960 --> 00:25:42,680
Vanessa: Moeten we intern gaan kijken naar hoe de opleidingen moeten veranderen, naar aanleiding van een veranderende arbeidsmarkt, jazeker zijn we ook mee bezig.
296
00:25:42,679 --> 00:25:45,320
Vanessa: Alleen wat je merkt.
297
00:25:45,560 --> 00:25:48,999
Vanessa: En dat is ook even weer mijn persoonlijke mening.
298
00:25:49,000 --> 00:25:54,440
Vanessa: Bedrijven die zijn gericht op concurrentievoordeel zijn, gericht op efficiëntie.
299
00:25:54,439 --> 00:26:01,959
Vanessa: Een universiteit implementeert AI voor kwaliteit van het onderwijs, kwaliteit van het onderzoek.
300
00:26:01,960 --> 00:26:03,640
Vanessa: We leiden de mensen op.
301
00:26:03,960 --> 00:26:08,759
Vanessa: En daar is daar gaat veel meer besluitvorming aan te pas.
302
00:26:08,760 --> 00:26:10,440
Vanessa: Of komt komt eraan te pas.
303
00:26:10,439 --> 00:26:18,280
Vanessa: Je moet meer over bepaalde zaken nadenken, veel meer verschillende invalshoeken om die basis vorm te geven.
304
00:26:18,520 --> 00:26:22,439
Vanessa: En dat kost tijd en dat vraagt behoorlijk wat afstemming.
305
00:26:22,599 --> 00:26:26,119
Vanessa: Ik denk dat je daarom ook wat langer erover zal doen.
306
00:26:26,119 --> 00:26:31,720
Vanessa: Maar op het moment dat je het hebt, dan kan je ook wel een andere vormgeven aan hoe je mensen opleidt.
307
00:26:32,040 --> 00:26:38,520
Vanessa: Of hoe mensen werken, of hoe de relatie tussen mensen en machine is en de impact daarvan op de samenleving.
308
00:26:39,000 --> 00:26:53,000
Niels Naglé: Ik denk dat het ook wel vraagt aan de docenten en het onderwijs in een brede zin om te weten wat AI wel en niet kan, hoe ver zien jullie dat nu al toegepast worden, zie je veel vraagstukken in het lab landen waar nu vraag naar is.
309
00:26:53,000 --> 00:26:54,199
Jos: Chatbots.
310
00:26:56,439 --> 00:26:58,040
Joop Snijder: Dat zijn we daar nog.
311
00:27:00,280 --> 00:27:05,800
Jos: Nee, maar dat zijn echt laaghangend fruit, want dat klus je natuurlijk in de dag in elkaar.
312
00:27:05,800 --> 00:27:11,320
Jos: Maar sommige vragen zijn ga je doorvragen en dan blijkt toch iets meer achter te zitten.
313
00:27:12,680 --> 00:27:19,560
Jos: Bijvoorbeeld één voorbeeld is van de club die jij goed kent, onze community voor learning innovation.
314
00:27:19,879 --> 00:27:29,959
Jos: Als ik een onderwijsprogramma samen wil stellen, dan heb ik 100, 10, 120 verschillende formats die ik in kan passen in mijn onderwijs.
315
00:27:30,200 --> 00:27:38,119
Jos: Sowieso al het vinden van het goede format voor bij wat ik wil, dat is al een uitdaging, dus dat is eigenlijk vraag 1: kunnen jullie daar een chatbot voor maken?
316
00:27:38,119 --> 00:27:41,239
Jos: Ja, dat is heel makkelijk.
317
00:27:41,240 --> 00:27:57,159
Jos: Maar de vervolgvraag is, kun je me dan ook helpen om mijn lesprogramma samen te stellen op basis van deze format, zodat mijn studenten straks ook goed beslagen ten ijs komen en aan de aan de eindcriteria voldoen, dat is een hele andere vraag.
318
00:27:58,359 --> 00:28:00,679
Jos: Welke moeilijkheid zit daarin.
319
00:28:02,599 --> 00:28:14,439
Jos: Dan zit denk ik ook een stukje hoe je creatief omgaat met de bouwstenen die je ter beschikking staan, ook de beperkingen die erin zitten.
320
00:28:16,040 --> 00:28:21,479
Jos: En het moet ook in te zetten zijn binnen de universiteiten binnen het onderwijs.
321
00:28:21,480 --> 00:28:26,359
Jos: Dus als je een AI daarop loslaat, die zal wereldwijd gaan zoeken.
322
00:28:27,240 --> 00:28:30,359
Jos: Wat voor leuke dingen kunnen we allemaal doen, dat is even niet de bedoeling.
323
00:28:30,359 --> 00:28:33,480
Jos: Dus je moet ook dingen, je moet het ook kunnen inkaderen.
324
00:28:35,160 --> 00:28:37,480
Jos: Dat is niet even een middagje knutselen.
325
00:28:38,760 --> 00:28:44,199
Jos: Maar inderdaad, chatbots, daar zitten we de makkelijke.
326
00:28:44,200 --> 00:28:55,959
Jos: Ook mensen die informatie op onze interne website niet kunnen vinden, wat niet heel verwonderlijk is, er staat heel erg veel op en het is niet altijd even goed gestructureerd.
327
00:28:56,280 --> 00:29:02,280
Jos: Dat biedt het ook meer waarde, want je bespaart mensen tijd en je kunt dingen makkelijk terugvinden.
328
00:29:02,599 --> 00:29:06,919
Jos: Maar goed, we hebben ietsje verder kijken.
329
00:29:07,560 --> 00:29:11,320
Jos: Je hebt een boek geven over agents, daar zijn we natuurlijk ook al een tijdje mee bezig.
330
00:29:11,320 --> 00:29:18,399
Jos: Dus ik heb vorig jaar ook een stagiair opdracht gegeven van diezelfde applied data science en AI-opleiding.
331
00:29:13,160 --> 00:29:20,400
Jos: Maak je toekomstige banen overbodig.
332
00:29:23,839 --> 00:29:26,320
Jos: Hier heb je de hulpmiddelen.
333
00:29:26,480 --> 00:29:27,599
Jos: Dit is je framework.
334
00:29:27,599 --> 00:29:35,599
Jos: Dus ik heb CRISP-DM, dat wordt veel toegepast als stappenplan voor het ontwikkelen van machine learning modellen.
335
00:29:36,480 --> 00:29:39,839
Jos: Pak dat als leidraad en ga maar aan de slag.
336
00:29:40,320 --> 00:29:42,719
Jos: Daar is AutoCRISP uit voortgekomen.
337
00:29:42,720 --> 00:29:51,919
Jos: Dus een volledig AI agent, gebaseerd of gedreven oplossing voor het uitvoeren van machine learning projecten.
338
00:29:52,480 --> 00:30:07,119
Jos: Da is die zover in gekomen dat ze tijdens de eindevaluatie ook van zijn opleiding van waar leiden we onze mensen nu nog voor op als dit al kan, en dit is natuurlijk een eerste prototype.
339
00:30:08,240 --> 00:30:11,200
Jos: Maar die zijn we nog verder aan het aan het uitbouwen.
340
00:30:11,200 --> 00:30:22,639
Jos: En wat je dus gaat zien, is dat je straks ook complete rollen of dat soort rollen of functies, laat je door een agente oplossing uitvoeren.
341
00:30:22,960 --> 00:30:26,959
Jos: En dan blijft de vraag inderdaad, waar leiden we onze mensen nog voor op.
342
00:30:27,520 --> 00:30:30,399
Joop Snijder: Want wat gaat zo iemand dan daar aan toevoegen?
343
00:30:30,720 --> 00:30:35,359
Jos: Nou, het moet nog wel gemaakt worden en gebouwd worden.
344
00:30:37,839 --> 00:30:44,560
Jos: Als het echt perfect zou werken, wat nu nog niet het geval is, dan kun je daarbij zitten.
345
00:30:44,560 --> 00:30:49,200
Jos: Wat je kunt doen is natuurlijk veel sneller toepassingen ontwikkelen.
346
00:30:49,520 --> 00:30:55,679
Jos: Dus steeds sneller waarde toevoegen, want je bouw zo'n model natuurlijk niet voor niks.
347
00:30:55,680 --> 00:30:58,959
Jos: Dat heeft een bepaalde toepassing, een bepaalde doel.
348
00:30:59,599 --> 00:31:08,240
Jos: Als dat voorheen een jaar kosten om een goed model te ontwikkelen en je kunt dat nu in twee weken doen met behulp van deze technologie.
349
00:31:08,240 --> 00:31:14,079
Jos: Ja, dat betekent niet dat je sneller klaar bent, maar dat betekent dat je vijftig keer zoveel kunt doen in dezelfde tijd.
350
00:31:14,399 --> 00:31:16,719
Joop Snijder: Een model hebben we het nu over een machine learning model.
351
00:31:17,919 --> 00:31:27,360
Joop Snijder: Wat ik me voor kan stellen, is dat wat allemaal nog nodig is, is dat je echt heel goed na blijft denken over de selectie bijvoorbeeld van welke data je wel of niet gebruikt.
352
00:31:28,159 --> 00:31:31,119
Joop Snijder: Dat kan je volgens mij moeilijk overlaten aan de machine.
353
00:31:31,280 --> 00:31:34,640
Joop Snijder: Dat betekent dat het gaat over bias, over fairness.
354
00:31:35,439 --> 00:31:36,800
Joop Snijder: En dat zijn uiteindelijk keuzes.
355
00:31:37,040 --> 00:31:38,159
Jos: Dat kan die ook.
356
00:31:38,240 --> 00:31:41,599
Joop Snijder: Ja, je kan die etische kan die ethische keuzes maken.
357
00:31:41,839 --> 00:31:43,679
Jos: Hij kan.
358
00:31:44,320 --> 00:31:47,920
Jos: Ik heb hiervoor bij een softwareleverancier gewerkt, die waren er heel goed in.
363
00:31:47,919 --> 00:31:59,199
Jos: Maar die datasets analyseren op bias en toetsen ten opzichte van normen die daarvoor zijn, ja, dat is eigenlijk een probleem wat min of meer is opgelost.
359
00:31:59,679 --> 00:32:04,159
Joop Snijder: Ja, maar het blijft natuurlijk, het blijven keuzes, wat je wel of niet aanbiedt.
360
00:32:04,480 --> 00:32:07,199
Joop Snijder: Ik bedoel, soms zijn het gewoon zelfs politieke keuzes.
361
00:32:08,800 --> 00:32:12,560
Joop Snijder: Ik mag hopen dat we dat voorlopig nog niet blijven doen.
362
00:32:12,560 --> 00:32:13,119
Jos: Ja, toch?
363
00:32:13,119 --> 00:32:13,840
Jos: Ja, klopt.
364
00:32:14,320 --> 00:32:17,439
Joop Snijder: Het zijn politieke keuzes, ethische keuzes.
365
00:32:20,560 --> 00:32:24,239
Joop Snijder: Laat ik het zo zeggen, ik hoop dat we daar voorlopig nog wel mensen voor inzetten.
366
00:32:25,439 --> 00:32:29,919
Jos: Ja, zeker voor die politieke keuzes, dat zou ik niet graag naar hier.
367
00:32:31,040 --> 00:32:33,679
Joop Snijder: Ik wist dat ik daar iets gevoelig voor raken.
368
00:32:34,000 --> 00:32:37,359
Joop Snijder: Over welk model hebben we het nu.
369
00:32:37,839 --> 00:32:39,199
Vanessa: Maakt niet uit.
370
00:32:39,919 --> 00:32:54,320
Niels Naglé: Ik was nog nieuwsgierig, want als dat soort ontwikkelingen mogelijk worden en steeds makkelijker mogen worden, betekent dat ook wat voor onderzoekers, onderzoekers, maar wordt makkelijker gemaakt om misschien bepaalde onderzoeken verder uit te diepen, zie je daar in de research al stappen in gezet worden.
371
00:32:55,439 --> 00:33:02,399
Jos: Je ziet in ieder geval dat voor research support dat daar al heel veel hulpmiddelen voor zijn.
372
00:33:03,520 --> 00:33:05,919
Jos: En dat je er ook enorm veel tijd mee kunt besparen.
373
00:33:05,919 --> 00:33:12,239
Jos: Kijk, je hebt nu gewoon met een druk op de knop toegang tot kennis van de hele wereld.
374
00:33:12,720 --> 00:33:19,599
Jos: En dat was vijf, zes jaar geleden nog absoluut niet zo, moet je zelf je brononderzoek gaan doen, je literatuur.
375
00:33:20,800 --> 00:33:25,280
Jos: Een beetje gaan grasduinen van waar ga ik mijn paper op baseren.
376
00:33:25,280 --> 00:33:43,759
Jos: En nu is dat gewoon van ja, je hebt in één keer een hele enorme kennisbank tot je beschikking een vraag van hoe je omgaan met die enorme hoeveelheid, ik heb eigenlijk niet voldoende basismateriaal om mijn onderzoek op te baseren.
377
00:33:44,240 --> 00:33:48,719
Joop Snijder: Vanessa, jij zei net dat er een programma loopt van vier jaar.
378
00:33:49,599 --> 00:33:51,679
Joop Snijder: Waar staan we over VAI?
379
00:33:53,280 --> 00:33:58,320
Vanessa: Ik denk dat we over vier jaar het woord AI niet meer zullen gebruiken.
380
00:33:59,720 --> 00:34:08,759
Vanessa: Ik denk dat we dat het dusdanig geïntegreerd is in de processen en de systemen.
381
00:34:09,079 --> 00:34:12,520
Vanessa: We weten grotendeels wat het inhoudt.
382
00:34:13,399 --> 00:34:16,599
Vanessa: En ik denk dat dat het begin is voor de universiteit.
383
00:34:17,239 --> 00:34:19,320
Vanessa: Om een nieuwe weg in te slaan.
384
00:34:19,560 --> 00:34:25,719
Vanessa: Wat ik daarmee bedoel, is je gaat als universiteit kijken waar zit de toegevoegde waarden.
385
00:34:25,960 --> 00:34:27,478
Vanessa: We hebben nu iedereen opgeleid.
386
00:34:27,480 --> 00:34:30,599
Vanessa: We weten ongeveer hoe we onze opleidingen moeten inrichten.
387
00:34:30,599 --> 00:34:32,440
Vanessa: We weten wat die arbeidsmarkt doet.
388
00:34:32,438 --> 00:34:36,760
Vanessa: Maar hoe ga je dan nu verder de waarde creëren als universiteit?
389
00:34:36,760 --> 00:34:39,639
Vanessa: Dus dan komt er een volgend vraagstuk.
390
00:34:40,518 --> 00:34:48,599
Vanessa: Ik zal niet zeggen identiteitscrisis, maar in het positioneren of herpositioneren van de rol als universiteit.
391
00:34:48,600 --> 00:34:54,839
Vanessa: Dus dan ga je meer kijken naar waartoe dienen wij als universiteit nu.
392
00:34:54,839 --> 00:35:08,039
Vanessa: Ga we meer naar een markt toe van leren, dus verschillende professionals, studenten die andere behoeften hebben en hoe gaan wij in die behoefte voorzien.
393
00:35:08,039 --> 00:35:10,519
Vanessa: En hoe gaat AI daar een rol inspelen?
394
00:35:10,519 --> 00:35:13,080
Vanessa: En mogelijk zit dat al in systemen.
395
00:35:13,479 --> 00:35:28,200
Vanessa: Ik denk ook dat we na gaan denken over de wijze waarop we onze waarden mogelijk hebben geherdefinieerd door alle ontwikkelingen, geopolitieke ontwikkelingen, maar ook onze eigen interne waarden.
396
00:35:28,359 --> 00:35:35,720
Vanessa: Wat transparantie inderdaad belangrijk, academische vrijheid ook belangrijk, integriteit belangrijk.
397
00:35:35,720 --> 00:35:41,800
Vanessa: Ik denk dat we die waarden ook opnieuw gaan herdefiniëren.
398
00:35:41,800 --> 00:35:45,399
Vanessa: En ik gok dat dat in ongeveer in die periode zou gaan.
399
00:35:45,399 --> 00:35:47,879
Vanessa: Nu moeten we nog een inhaalslag maken.
400
00:35:48,200 --> 00:35:50,760
Vanessa: Dus we gaan heel snel mee.
401
00:35:50,760 --> 00:35:54,199
Vanessa: We gaan hopelijk ook heel snel de stappen kunnen maken.
402
00:35:54,200 --> 00:36:04,040
Vanessa: Maar dan komt komen eigenlijk die existentiële vragen waar we een antwoord op moeten gaan formuleren en eigenlijk direct omzetten in actie.
403
00:36:06,760 --> 00:36:08,839
Joop Snijder: Hoe moet ik dat dan zo direct zien?
404
00:36:09,320 --> 00:36:13,320
Joop Snijder: Heeft de universiteit dan een andere positie gekregen.
405
00:36:16,999 --> 00:36:18,760
Vanessa: Ja, goede vraag.
406
00:36:19,640 --> 00:36:24,839
Vanessa: Als je het nu zou vragen, zou ik het is niet oneerbiedig.
407
00:36:24,839 --> 00:36:28,679
Vanessa: Ik denk dat je bijna een soort platform of ecosysteem wordt.
408
00:36:28,680 --> 00:36:33,879
Vanessa: Ik denk niet dat er een universiteit aan zich zal blijven bestaan.
409
00:36:33,879 --> 00:36:41,400
Vanessa: Ik denk dat je onderdeel gaat worden van een ecosysteem van bedrijven, van maatschappelijke organisaties, van communities.
410
00:36:41,399 --> 00:36:45,639
Vanessa: En dat je daar als universiteit een onderdeel van wordt.
411
00:36:45,640 --> 00:37:03,160
Vanessa: En daar hopelijk ook dan je toegevoegde waarde kan bieden in de vorm van ik zal niet zeggen de waarheidsvinding, maar dat je wel op basis van wat je hebt onderzocht mensen voor kaders kan meegeven.
412
00:37:03,879 --> 00:37:13,960
Vanessa: Kritisch denken kan voor bepaalde vaardigheden kan meegeven, waarmee ze feitelijk hun carrière kunnen bouwen en doorontwikkelen.
413
00:37:17,240 --> 00:37:18,760
Joop Snijder: Hoe kijk jij er tegenaan, Jos?
414
00:37:18,999 --> 00:37:24,200
Jos: Ja, ik denk dat het hele onderwijssysteem fundamenteel gaat veranderen.
415
00:37:24,600 --> 00:37:31,960
Jos: Ook als je kijkt bijvoorbeeld naar een ontwikkeling als lifelong learning, die wij ondersteunen en verder aan het ontwikkelen zijn.
416
00:37:31,959 --> 00:37:46,200
Jos: Ja, de klassieke levensloop van studenten die gaan naar het WWO of de HVO en dan ga je naar HBO of WO en dan studeer je af en dan gaan we werken, dat zal wel anders gaan worden.
417
00:37:46,839 --> 00:37:48,599
Jos: Waarom zou ik dat doen?
418
00:37:48,839 --> 00:37:54,919
Jos: Want heel veel van die kennis die waarvoor ik naar een universiteit ging, die kan ik met de druk knop ophalen.
419
00:37:54,919 --> 00:37:59,320
Jos: Dus het gaat veel meer om leren hoe je dat toe kunt passen in een praktijksituatie.
420
00:37:59,320 --> 00:38:08,759
Jos: Dus je zult ook veel vaker terugkomen weer naar die universiteit of je hele leven verbonden blijven aan een universiteit om af en toe gewoon bij te tanken.
421
00:38:09,080 --> 00:38:16,440
Jos: En niet één keer per vijf jaar een keer een summer course doen, maar gewoon regulier dat zou mooi zijn.
422
00:38:16,839 --> 00:38:20,039
Jos: Dat het eigenlijk een integraal onderdeel wordt van je carrière.
423
00:38:20,359 --> 00:38:28,359
Jos: Dus aan een universiteit verbonden blijven om continu te zorgen dat je qua kennisontwikkeling bijblijft, maar ook voor kunt lopen.
429
00:38:28,359 --> 00:38:39,080
Joop: Maar is het ook niet zo dat vanuit het bedrijfsleven wordt natuurlijk ook gewoon geleund op het feit dat je een diploma haalt, of dat nou het HBO is of WO of MBO.
424
00:38:39,959 --> 00:38:42,839
Joop: Denk je dat dat deel dan blijft bestaan?
425
00:38:43,200 --> 00:38:45,439
Vanessa: Ik zie een tegenbeweging eigenlijk.
426
00:38:45,439 --> 00:38:52,240
Vanessa: Ik zie juist dat bedrijven minder belangrijker die gaan meer kijken naar vaardigheden.
427
00:38:52,559 --> 00:39:05,679
Vanessa: Je ziet ze ook veel sneller op middelbare scholen alvast zoeken naar interessante studenten die al een programma kunnen volgen intern.
428
00:39:05,680 --> 00:39:19,040
Vanessa: En dan leiden ze die studenten feitelijk op, omdat je nu nog heel breed georiënteerd bent als student, of juist een bepaalde specialisme hebt.
429
00:39:19,280 --> 00:39:22,879
Vanessa: Denken bedrijven nou, dit is wat ik nodig heb op dit moment.
430
00:39:22,879 --> 00:39:30,399
Vanessa: En dat voorzien een universiteit of een andere onderwijsinstelling niet helemaal.
431
00:39:30,399 --> 00:39:32,320
Vanessa: Dus wij gaan het zelf aanbieden.
432
00:39:32,399 --> 00:40:02,480
Niels: Heb je één de garantie dat je de juiste mensen hebt, en dat die mensen ook de juiste vaardigheden hebben, uiteindelijk om het werk uit te oefenen, dus meer controle, maar blijven we dan niet dadelijk alleen maar met praktische vraagstukken, ik heb nu bepaalde activiteiten, net hebben we deze capabilities nodig, maar hebben we dan ook zicht voor de lange termijn, waar ik vind universiteiten ook voor de lange termijn kijken, waar gaan we heen in die beweging, voor komt dat dan niet eigenlijk dat de mensen daar beschikbaar komen voor de lange termijn gaan kijken.
433
00:40:07,439 --> 00:40:14,320
Vanessa: Bedoel je daarmee dat je zegt middenlange of lange termijn.
434
00:40:14,720 --> 00:40:19,919
Niels: Wat ik voor me kan zien, bedrijven hebben nu een vraagstuk, ze hebben nu bepaalde skills en capabilities nodig.
435
00:40:19,919 --> 00:40:29,760
Niels: Dus die gaan ze zoeken en waar dat mogelijk is en als dat middelbare school is, dan kunnen ze het opleiden en dan kunnen ze helemaal meenemen, terwijl voor universiteiten gaan we ook verder gaan verder onderzoeken.
436
00:40:29,760 --> 00:40:47,359
Niels: En misschien de mensen die dan al ingezet zijn in het werkveld, zijn dus niet klaargemaakt voor juist wel die universiteit waar de persoon misschien juist een goede match was, maar omdat die dan al wordt ingezet, doen we dan eigenlijk niet de capabilities van die persoon die er misschien nog niet zijn die nog gecreëerd gaan worden tekort, dat is even een beeld bij mij dan.
437
00:40:49,519 --> 00:40:57,600
Jos: Dan ga je ervan uit dat leertraject afsluit op het moment dat iemand gaat werken, nee, dat je juist helemaal anders.
438
00:40:58,959 --> 00:41:10,079
Niels: Ik ben voor levenslang leren, inderdaad, omdat houdt nooit op de veranderingen blijven komen, maar dat je dan al een bepaalde kant op gaat, waardoor je dus eigenlijk door het werk eigenlijk gekozen wordt een bepaalde richting in te gaan.
439
00:41:10,080 --> 00:41:21,680
Niels: Terwijl nu middelbaar voortgezet onderwijs, je bent nog best wel breed, dus je kan er best wel veel zien en verschillende perspectieven krijgen, dat het perspectief een beetje narrow wordt, hoeft natuurlijk niet hoor.
440
00:41:22,640 --> 00:41:30,080
Vanessa: Dat je al een bepaald specialisme hebt gekozen, omdat je zo'n interne opleiding vindt binnen een bedrijf?
441
00:41:31,039 --> 00:41:45,520
Vanessa: Misschien heel opportunistisch de weg van de minste verdient geld, het levert kennis en kunde op vaardigheden, ik denk dat is mogelijk de eerste gedachte van een student.
442
00:41:46,959 --> 00:41:56,399
Vanessa: Ik denk uiteindelijk als je wat later wat verder in je carrière bent, dan heb je behoefte aan wat meer diepgang en dan kan je weer aankloppen bij de universiteit.
443
00:41:56,720 --> 00:42:04,080
Vanessa: En dan kan je kijken van welke opleiding nu nodig om het vervolg traject te starten in mijn carrière.
444
00:42:04,080 --> 00:42:14,400
Vanessa: Ik denk dat daar weer de rol van een universiteit komt of wanneer het hebt over we hebben wat bovenop dat specialisme hebben we wat meer diepgang nodig.
445
00:42:15,200 --> 00:42:18,639
Vanessa: Dan komt ook weer de universiteit op de hoek kijken.
446
00:42:18,640 --> 00:42:22,560
Joop: En de universiteit gaat natuurlijk ook over fundamenteel onderzoek.
447
00:42:24,240 --> 00:42:31,280
Joop: Nu hebben we met AlfaFold, wordt al allerlei nieuwe eiwitten en dat soort dingen ontdekt.
448
00:42:31,280 --> 00:42:36,960
Joop: Hoe zien jullie zeg maar dat AI ook fundamenteel onderzoek gaat doen?
449
00:42:40,479 --> 00:42:43,680
Jos: Nog is een heel goed voorbeeld.
450
00:42:45,600 --> 00:42:54,240
Jos: Ik wilde hem al noemen, namelijk, want fundamenteel onderzoek kost geld, en levert niet direct iets concreets op.
451
00:42:58,640 --> 00:43:10,160
Jos: Dus als we nu opleiding en AI en ook universiteiten universiteit wordt ook steeds meer een leerfabriek waar je opgeleid wordt voor een baan ergens.
452
00:43:10,720 --> 00:43:14,320
Jos: En niet zozeer voor rol als wetenschapper.
453
00:43:15,280 --> 00:43:29,320
Jos: Maar dat hangt er ook vanaf hoe belang hoeveel belang wij als maatschappij nog hechten aan fundamenteel onderzoek en het verder brengen van kennis en onze maatschappij kan ik geen antwoord op geven.
454
00:43:29,640 --> 00:43:34,760
Jos: Maar ik denk dat met name dat fundamentele onderzoek de richting die we nu in aan het gaan zijn.
455
00:43:35,640 --> 00:43:38,920
Jos: Ja, komt dat onder druk te staan.
456
00:43:39,559 --> 00:43:40,439
Jos: Ben ik bang.
457
00:43:40,439 --> 00:43:46,440
Vanessa: Ik denk dat dat inderdaad ook zal afhangen van wat de maatschappij gaat waarderen.
458
00:43:47,959 --> 00:44:01,960
Vanessa: Persoonlijk denk ik dat toegepast onderzoek zal mogelijk wat meer animo beleven binnen de maatschappij, omdat het wat sneller gaat, het is direct toegepast in de praktijk.
459
00:44:02,600 --> 00:44:05,320
Vanessa: Dus je ziet directe waarde of niet.
460
00:44:05,640 --> 00:44:19,479
Vanessa: Maar voor theorievorming zal ik altijd blijven pleiten voor fundamenteel onderzoek, ik denk dat die onderzoekers er per definitie moeten blijven, mogelijk een niche.
461
00:44:19,800 --> 00:44:31,800
Vanessa: Maar zorg dan dat je op de sterke transities of ontwikkelingen die je dan ziet, dat je daar dan fundamenteel onderzoek bij of over doet.
462
00:44:32,120 --> 00:44:38,439
Vanessa: Ik denk dat je op die manier mogelijk strategisch moet gaan innoveren als universiteit.
463
00:44:38,439 --> 00:44:40,280
Vanessa: Dus waar gaan we wel op inzetten?
464
00:44:40,280 --> 00:44:45,240
Vanessa: Ik noem ook energietransitie, de zorg, defensie.
465
00:44:45,240 --> 00:44:54,440
Vanessa: Als je kijkt naar de lange termijn, dan zou ik zeggen van zet een paar goede onderzoekers daarop voor de komende periode.
466
00:44:54,439 --> 00:44:58,999
Vanessa: Dat gaan we wel hard nodig hebben, naast onderzoekers die toegepast onderzoek doen.
467
00:44:58,999 --> 00:45:02,839
Vanessa: Want dan kan je direct de verbinding eventueel met elkaar leggen.
468
00:45:03,160 --> 00:45:06,280
Joop: Als ik dan toch nog even terug naar de AI.
469
00:45:07,080 --> 00:45:12,280
Joop: Het wordt steeds makkelijker om langlopende vraagstukken uit te zetten.
470
00:45:12,600 --> 00:45:18,999
Joop: Ik kan nu kan ik iets aanzetten, dat een week lang wordt geprogrammeerd bijvoorbeeld.
477
00:45:19,320 --> 00:45:35,000
Joop: Wat als we nou verschillende taalmodellen die er nu zijn en zeggen van je mag gewoon een jaar lang mag je ergens op broeden met een fundamenteel vraagstuk, zou je zoiets voor je zien, zou daar iets uit kunnen komen, denk jij Jos.
471
00:45:37,720 --> 00:45:48,519
Jos: Kijk, AI kan niet, dan kom je ook op het punt van creativiteit en beschikbare kennis.
472
00:45:48,600 --> 00:45:51,559
Jos: Kijk, die modellen die worden natuurlijk getraind op basis van beschikbare kennis.
473
00:45:51,559 --> 00:45:58,520
Jos: Als iets nog niet bestaat, hoe kan een AI dan ooit bedenken dat dat een goed idee zou kunnen zijn.
474
00:46:00,999 --> 00:46:02,120
Jos: Kwantum.
475
00:46:02,439 --> 00:46:07,399
Vanessa: Ik denk dat kwantum mogelijk het verschil zou kunnen gaan maken.
476
00:46:07,399 --> 00:46:21,959
Vanessa: Dat je zoveel data bij elkaar brengt en dat je die data over elkaar heen kan leggen en dat je daarmee inzichten kan creëren met een goede brom erbij, natuurlijk.
477
00:46:21,959 --> 00:46:26,759
Vanessa: Dat je richting die toekomst mogelijk toekomstscenario's kan creëren.
478
00:46:26,760 --> 00:46:35,959
Vanessa: Niet als zijn de voorspellingen, maar meer als een soort stresstest van zitten we nog in de juiste richting met onze strategieën.
479
00:46:35,959 --> 00:46:43,800
Joop: En is het misschien niet al aanwezig in wat we hebben vastgelegd, maar hebben we de juiste punten nog niet met elkaar verbonden.
480
00:46:44,839 --> 00:46:50,200
Jos: Ja, net als dat Watson allerlei verrassende recepten.
481
00:46:52,519 --> 00:46:56,920
Joop: Arby en Watson is misschien niet het beste voorbeeld.
482
00:47:00,919 --> 00:47:02,680
Jos: Die kwam inderdaad met nieuwe.
483
00:47:07,879 --> 00:47:13,879
Jos: Maar ook wel dingen waarvan ook mensen zijn van je zal nog nooit over nagedacht, eigenlijk best wel lekker.
484
00:47:14,519 --> 00:47:19,960
Jos: Maar goed, dat is ook weer op basis van bestaande ingrediënten, dingen gaan combineren.
485
00:47:21,479 --> 00:47:24,599
Jos: En dat zal een AI voorlopig nog wel even blijven doen.
486
00:47:24,600 --> 00:47:31,720
Jos: Dus buiten die context die bekend is binnen zo'n model iets nieuws.
487
00:47:31,959 --> 00:47:34,600
Jos: Ja, dat weet ik nog niet.
488
00:47:35,399 --> 00:47:36,759
Joop: We weten het ook nog niet, toch?
489
00:47:36,999 --> 00:47:39,480
Joop: Ik was benieuwd wat we daar tegenaan kijken.
490
00:47:41,240 --> 00:47:49,959
Joop: De Divine Spark, als we het ter afsluiting over het blijven leren.
491
00:47:49,959 --> 00:47:52,599
Joop: Wat zou jullie de luisteraars mee willen geven?
492
00:47:52,839 --> 00:47:57,560
Joop: En het liefst, zeg maar iets in combinatie met AI, want we zijn nu vind ik een AI podcast.
493
00:47:59,320 --> 00:48:05,879
Jos: Ja, dan moet ik weer denken aan een andere een van jullie concurrenten.
494
00:48:06,200 --> 00:48:08,600
Jos: Gewoon niet bang zijn gewoon doen.
495
00:48:08,999 --> 00:48:17,839
Jos: Ik denk dat zeker als je kenniswerker bent of in de IT of het maakt niet uit en je hebt nog geen kennis gemaakt met AI tooling.
496
00:48:18,800 --> 00:48:23,040
Jos: Ga dat in ieder geval na deze uitzending meteen doen.
497
00:48:23,600 --> 00:48:25,359
Jos: Want je hebt geen idee.
498
00:48:25,359 --> 00:48:28,240
Jos: En dat merk ik ook aan heel veel mensen om me heen.
499
00:48:28,240 --> 00:48:32,399
Jos: Ze hebben geen idee, ze zijn heel afwachten, ze zijn bang, ze vinden het eng.
500
00:48:32,720 --> 00:48:36,720
Jos: Het is nuttig, of het is totaal nutteloos.
501
00:48:37,039 --> 00:48:46,160
Jos: Ja, dat klopt als je even een prompje intypt en er komt iets uit waar je denkt van ja, daar heb ik niet zoveel aan en je laat het dan vervolgens liggen.
502
00:48:46,479 --> 00:48:50,799
Jos: Dat is een beetje negeren van de van de werkelijkheid.
503
00:48:52,640 --> 00:48:55,679
Jos: Het niveau waarop we nu al zijn.
504
00:48:55,999 --> 00:49:04,399
Joop: Ik denk zelfs dat als je een beetje een beetje sceptisch bent dat je iets probeert waarvan je denkt dat het echt niet kan, dat je je dan eens even laten verrasen.
505
00:49:04,959 --> 00:49:15,839
Jos: Ja, maar goed, mensen die sceptisch zijn en die het dan een keer proberen, die worden dan bevestigd in hun wantrouwen van ja, zie je wel dat dingen er bak er helemaal niks van.
506
00:49:16,160 --> 00:49:31,359
Niels: Daar even aanvullend vraag het dan samen met iemand op te gaan pakken en de sceptici te koppelen aan, inderdaad, misschien wel iemand die te positief is, die zijn er ook zoek elkaar op en daag elkaar is uit en zoek dan het sceptische op.
507
00:49:31,519 --> 00:49:35,439
Niels: Ik denk dat dan de magische sprankeling wel kan plaatsvinden.
508
00:49:37,120 --> 00:49:38,559
Niels: Die perspectieven heb je wel nodig.
509
00:49:38,559 --> 00:49:42,640
Niels: Dus ik denk dat die koppeling daartussen wel een hele waardevolle gaan zijn.
510
00:49:45,519 --> 00:49:50,320
Vanessa: Wat ik de laatste tijd heel erg om me heen zie is AI moeheid.
511
00:49:52,160 --> 00:49:58,720
Vanessa: Je wordt er dagelijks mee geconfronteerd, mooie en minder mooie dingen.
512
00:49:59,919 --> 00:50:05,200
Vanessa: Ik zou de mensen die op dit moment de best practices hebben.
513
00:50:07,600 --> 00:50:17,520
Vanessa: De use cases die echt waarde hebben opgeleverd, dat die veel meer naar buiten toe treden om dit te delen.
514
00:50:18,320 --> 00:50:29,280
Vanessa: Ik denk dat dan een deel van de sceptici of een deel van de angst mogelijk van worden.
515
00:50:30,399 --> 00:50:40,719
Vanessa: Ik denk ook, en dat vind ik een belangrijke tegenbeweging, we moeten vooral ook kijken naar de impact die AI ook heeft.
516
00:50:41,039 --> 00:50:49,039
Vanessa: En dat we daar een manier in vinden om dat gebalanceerd uit te voeren of te implementeren.
517
00:50:49,039 --> 00:50:57,519
Vanessa: Dus te kijken van hoe kunnen we op een verantwoorde manier AI binnen het onderwijs integreren.
518
00:50:57,519 --> 00:51:00,800
Vanessa: Hoe kunnen we onderzoekskwaliteit verhogen?
519
00:51:00,800 --> 00:51:06,800
Vanessa: Hoe kunnen we voor de bedrijfsvoeringskant de werkdruk verminderen?
520
00:51:07,120 --> 00:51:11,599
Vanessa: Maar wel op een manier die pas binnen de normen en waarden die wij hebben.
521
00:51:11,600 --> 00:51:13,440
Vanessa: En ik denk dat dat nog.
522
00:51:13,999 --> 00:51:21,039
Vanessa: Daar hoop ik dat heel wat mensen met frameworks en kaders en use cases naar voren meestappen.
523
00:51:21,039 --> 00:51:22,320
Joop: Mooi, dankjewel.
524
00:51:22,320 --> 00:51:29,920
Joop: Dankjewel dat jullie bij ons in de studio wilden zijn en toch een kijkje in de keuken van het Erasmus hebben gegeven.
525
00:51:31,600 --> 00:51:35,200
Joop: Ja, dat wil je nog iets toevoegen.
526
00:51:37,439 --> 00:51:42,879
Joop: Leuk dat je weer luisterde naar deze aflevering, vergeet je niet te abonneren via je favoriete podcast app.
527
00:51:42,879 --> 00:51:45,599
Joop: En we hebben een hele erg leuke nieuwsbrief.
528
00:51:45,600 --> 00:51:48,720
Joop: En daar zit ook een vraag van de maand altijd in.
529
00:51:48,720 --> 00:51:51,519
Joop: Dus dan krijg je verschillende perspectieven van de luisteraars.
530
00:51:52,479 --> 00:51:55,600
Joop: In de show notes staat het linkje naar de nieuwsbrief.
531
00:51:55,600 --> 00:52:00,800
Joop: Kan je je gewoon op abonneren tot de volgende keer.