AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E71 - De rol van Women in AI: inspiratie voor de nieuwe generatie - met Suzan Al-Nassar
Suzan, een enthousiaste data- en AI-consultant bij Info Support, deelt haar passie voor kunstmatige intelligentie en haar inzet voor Women in AI. Ze vertelt over haar reis naar AI, haar ervaringen tijdens haar studie en haar werk bij Info Support.
Suzan benadrukt het belang van rolmodellen en diversiteit in de technologie. Ze wil jonge meiden inspireren en laten zien dat AI voor iedereen toegankelijk is.
Luister mee naar dit inspirerende gesprek over de impact van AI op de samenleving en de toekomst van vrouwen in de technologie.
Links
- Organisatie: Women in AI (https://womeninai.nl)
- Website: Nominaties voor Women in AI (https://womeninai.nl/wai-awards/)
- Instagram: Volg Suzan op Instagram (@tech.forwomen) (https://www.instagram.com/tech.forwomen/)
- Bedrijf: Info Support (https://www.infosupport.com)
- Artikel: Elsevier (https://www.elsevier.com)
- Kaartspel: AI Game Changer, de Generatieve AI editie - gratis te bestellen (https: //aigency.com/ai-game-changer/)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:07,880
Hoi, welkom bij een nieuwe aflevering van AIToday Live. Dit is de Nederlandse podcast over
2
00:00:07,880 --> 00:00:14,240
kunstmatige intelligentie en in elke aflevering op de maandag, komt die altijd live, spreken we
3
00:00:14,240 --> 00:00:19,600
met experts op het gebied van AI. En of je nu een zakelijke professional, IT-specialist of AI
4
00:00:19,600 --> 00:00:24,040
enthousiasteling bent, wij bieden je waardevolle inzichten en duidelijke uitleg over de nieuwste
5
00:00:24,040 --> 00:00:28,680
ontwikkelingen en toepassingen in de wereld van AI. Mijn naam Joop Snijder, CTO bij Aigency.
6
00:00:28,680 --> 00:00:35,520
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support. En vandaag hebben we ook vanuit Info Support,
7
00:00:35,520 --> 00:00:40,840
hebben wij Suzan te gast. Suzan, zou je je eerst even willen voorstellen aan de luisteraars?
8
00:00:40,840 --> 00:00:47,200
Ja natuurlijk, dankjewel Joop. Hallo allemaal, ik ben Suzan, ik ben 24 jaar. Ik ben recentelijk
9
00:00:47,200 --> 00:00:54,720
afgestudeerd aan de Universiteit Leiden. Ik deed de master Computer Science met Artificial
10
00:00:54,720 --> 00:01:00,840
Intelligence als specialisatie. En ik heb ook mijn scriptie bij Info Support geschreven en dat is
11
00:01:00,840 --> 00:01:06,320
eigenlijk hoe ik bij Info Support terecht kwam. En sinds enkele maanden ben ik in dienst bij Info Support
12
00:01:06,320 --> 00:01:13,400
als data en AI consultant. Ja en waar we het vandaag specifiek over gaan hebben, is jouw
13
00:01:13,400 --> 00:01:21,160
lidmaatschap bij Women in AI. Ja, eigenlijk toen ik mijn carrière begon, toen ik echt begon met
14
00:01:21,160 --> 00:01:29,320
werken, dacht ik ik wil sowieso hiernaast wat gaan doen om echt alles uit mijn nut te halen wat ik
15
00:01:29,320 --> 00:01:37,480
kan halen. En toen ben ik een beetje gaan kijken en kwam ik Women in AI tegen. Ja, dat is een
16
00:01:37,480 --> 00:01:44,200
vrijwilligersorganisatie die zich richt op het helpen en ondersteunen van vrouwen in AI specifiek.
17
00:01:44,200 --> 00:01:51,400
Dat klinkt als een belangrijke taak. Maar misschien kan jij vertellen,
18
00:01:51,400 --> 00:01:58,960
waarom vind jij het eigenlijk belangrijk? Dat is een goede vraag. Ja, eigenlijk dacht ik er zelf
19
00:01:58,960 --> 00:02:05,400
nooit aan om iets in informatica überhaupt te gaan doen. Op de middelbare school hadden we wel het
20
00:02:05,400 --> 00:02:11,720
vak informatica, maar ik dacht nou dat is niks voor mij. Er kwam toen iemand praten om te vertellen
21
00:02:11,720 --> 00:02:17,200
wat het was en ik merkte dat hij zich ook echt richtte op de mannen. De mannen waren er enthousiast
22
00:02:17,200 --> 00:02:20,720
van en de vrouwen hadden een beetje van ja, het zal wel, weet je, we moeten dit eventjes doorstaan.
23
00:02:20,720 --> 00:02:30,720
Zo zat ik er eigenlijk ook in. Ik hield wel altijd van de beta vakken. Ik had wiskunde B en natuurkunde
24
00:02:30,720 --> 00:02:37,320
waar ik me profiel. Die beta vakken lagen mij wel echt. Maar ik weet niet, ja, informatica,
25
00:02:37,320 --> 00:02:41,240
ik dacht er gewoon nooit aan. Ik dacht dat is veel te moeilijk, niks voor mij. Dus ik was ook
26
00:02:41,240 --> 00:02:46,960
eigenlijk begon met wiskunde als studie. Maar er waren wat studenten die de dubbele bachelor deden
27
00:02:46,960 --> 00:02:51,920
van wiskunde en informatica. En als wiskundestudent had ik ook een programmeervak wat ik verplicht
28
00:02:51,920 --> 00:02:57,240
moest volgen. Dus zo kwam ik een beetje een aanraking daarmee. En na een maand dacht ik
29
00:02:57,240 --> 00:03:03,760
eigenlijk ja, misschien had ik toch informatica moeten studeren. En toen was ik geswitched. Dat
30
00:03:03,760 --> 00:03:10,680
was wel heel ongelukkig. Ik heb er geen moment spijt van gehad. Alleen in de collegezalen waren
31
00:03:10,680 --> 00:03:18,280
er echt gewoon op twee handen vrouwen te tellen. Een stuk of zes, zeven, inclusief ik. En dan gaat
32
00:03:18,280 --> 00:03:26,600
het wel echt om honderd studenten in totaal, zeg maar. En ik dacht ja, waar zijn ze? En toen dacht
33
00:03:26,600 --> 00:03:34,360
ik eigenlijk op dat moment deed ik er verder nog niks mee. Je had wel Girls in Science dagen bij
34
00:03:34,360 --> 00:03:39,760
ons op de uni. Dus daar kwam ik al een beetje een aanraking mee. Dat er dus ook veel steun was
35
00:03:39,760 --> 00:03:46,920
voor vrouwen in informatica en beta vakken. Maar verder had ik er nog niet echt iets actiefs mee
36
00:03:46,920 --> 00:03:52,760
gedaan. En toen later dacht ik eigenlijk, hoe kan dat nou eigenlijk? Hoe kan het zo zijn dat er zo
37
00:03:52,760 --> 00:03:59,280
weinig vrouwen in de IT zijn, in überhaupt beta vakken? En toen dacht ik na bij mezelf,
38
00:03:59,280 --> 00:04:05,320
van oh ja, hoe ging dat bij mij? Ik had ook een beetje dat beeld van nee, dit is niks voor mij.
39
00:04:05,320 --> 00:04:12,560
Maar dat was eigenlijk nergens echt op gebaseerd. Waarschijnlijk wel wat stereotypes. Toen dacht ik,
40
00:04:12,560 --> 00:04:20,320
ja, er moeten wel wat veranderingen komen. En daar vond ik dus Women in AI in. En ja,
41
00:04:20,320 --> 00:04:27,080
ik ben er nu vrijwilliger een tijdje. En ik merk echt dat zij zich alles op alles inzetten om vrouwen
42
00:04:27,080 --> 00:04:36,640
te inspireren. Om vrouwen te betrekken in de informatica, in AI. Maar ook om jonge meiden
43
00:04:36,640 --> 00:04:44,200
eigenlijk al in aanraking te laten komen met AI. En jong, waar hebben we het dan over? Vanaf de
44
00:04:44,200 --> 00:04:49,960
leeftijd van veertien. Oh ja, dat is zeker jong. Ja, want dan hebben ze nog geen profielkeuze gemaakt
45
00:04:49,960 --> 00:04:55,720
wat ze daarna willen doen. Op de middelbare school tenminste. Dus dan kan je nog altijd die
46
00:04:55,720 --> 00:05:02,600
keuze daarna maken. En als je ze dan op die leeftijd al in aanraking brengt met AI en ook
47
00:05:02,600 --> 00:05:09,240
laat zien van kijk, dit is niet alleen iets wat je in een donkere kamer doet. Met pizza en cola. Ja,
48
00:05:09,240 --> 00:05:15,960
precies. Dan gaan zij toch misschien anders naar kijken dan hoe ik in hun op die leeftijd dacht.
49
00:05:15,960 --> 00:05:22,360
Want ja, AI is natuurlijk niet alleen maar getalletjes, cijfertjes en eentjes en nullen.
50
00:05:22,360 --> 00:05:29,080
Het is zoveel meer. En we hebben er allemaal mee te maken op de dagelijkse basis. Maar die
51
00:05:29,080 --> 00:05:35,040
realisatie komt natuurlijk niet echt door bij mensen. En waar je nu staat, wat je nu weet,
52
00:05:35,040 --> 00:05:40,400
als je even terug zou gaan, wat zou er dan in zo'n presentatie op de middelbare school naar
53
00:05:40,400 --> 00:05:45,440
jou verteld moeten zijn, waardoor je anders zou gaan denken? Is dat voor jezelf in te vullen met
54
00:05:45,440 --> 00:05:51,080
de reis die je nu hebt meegemaakt? Ja, ik denk dat het zou helpen als je niet alleen misschien een
55
00:05:51,080 --> 00:05:56,240
man als rol zou hebben, maar ook een vrouw. Dus misschien allebei. Want dan zie je het van beide
56
00:05:56,240 --> 00:06:01,880
kanten. Want ik vind het belangrijk dat niet alles nu geskipt wordt door de mannen en dat het alleen
57
00:06:01,880 --> 00:06:07,280
maar vrouwen moet zijn. Ik vind het belangrijk dat die balans er is tussen de twee. Maar had het
58
00:06:07,280 --> 00:06:13,520
geholpen als die vrouw hetzelfde verhaal had verteld als de man? Ja, ik moet hierbij zeggen
59
00:06:13,520 --> 00:06:19,240
dat die man die die presentatie gaf, dat is wel echt zo'n typische... Je mag gewoon alles zeggen
60
00:06:19,240 --> 00:06:24,480
wat je wil. Ja, een stereotype. Best wel een nerd. Een hele grappige persoonlijkheid wel.
61
00:06:24,480 --> 00:06:32,120
Maar wel echt... Ik weet niet of als dat een vrouw was geweest of zij die presentatie dan op dezelfde
62
00:06:32,120 --> 00:06:39,200
manier had gegeven. Om een beetje te prikkelen. Ja, maar ik denk dat die combinatie het allerleukste
63
00:06:39,200 --> 00:06:45,840
was geweest. Want dan zie je toch van beide kanten hoe dat gaat. Ik wil je toch iets verder uitdagen
64
00:06:45,840 --> 00:06:51,360
op die vraag van Niels. Wat had je nou willen horen? Dat is wat je toen niet wist. Dus we
65
00:06:51,360 --> 00:06:57,280
hebben nu luisteraars die dochters hebben in de leeftijdscategorie misschien 14 tot en met 18.
66
00:06:57,280 --> 00:07:05,760
Wat had jij toen willen horen wat je nu eigenlijk weet? Ik denk voornamelijk wat je ermee kan en
67
00:07:05,760 --> 00:07:12,280
wat je op dit moment mee doet. Hoe je het gebruikt en echt vanuit de praktische kant. De impact die
68
00:07:12,280 --> 00:07:20,960
je kan maken. Ja, want met informatica überhaupt heb je al zoveel impact op de maatschappij. En
69
00:07:20,960 --> 00:07:25,640
als je dat meer naar voren zou brengen in plaats van echt. Hij ging het echt hebben over de technische
70
00:07:25,640 --> 00:07:33,440
kant van wat je dan gaat doen. Volgens mij had hij het over een webapp maken of zo. Oké, leuk man.
71
00:07:33,440 --> 00:07:41,960
Leuk voor je. Geef me gewoon wat meer context. Geef me wat meer wat kan ik hiermee. Als ze misschien
72
00:07:41,960 --> 00:07:45,880
voorbeelden hadden gegeven van wat het zou betekenen bijvoorbeeld in de gezondheidszorg.
73
00:07:45,880 --> 00:07:52,360
Wat voor veranderingen je daar teweeg brengt met deze technologie. Wat het misschien betekent op
74
00:07:52,360 --> 00:07:58,920
het gebied van maatschappelijke veranderingen. Dat soort zaken. Ja, zulke zaken inderdaad. Maar
75
00:07:58,920 --> 00:08:04,720
ook misschien dingen zoals mode, fashion. Daar wordt het natuurlijk ook steeds meer in gezet.
76
00:08:04,720 --> 00:08:10,400
Daar zou ik ook niet meteen aan denken. Oh ja, wat goed. Ik vind het gewoon hartstikke leuk om echt
77
00:08:10,400 --> 00:08:18,280
in alle contexten een beetje te zien hoe dat gebruikt wordt. Misschien even een zijsprong.
78
00:08:18,280 --> 00:08:25,160
Want juist omdat je haalt dit aan. Ik bedenk dat niet. Welke dingen zie jij in die mode, fashion,
79
00:08:25,160 --> 00:08:35,040
wat een verandering geweest is door de AI? Bijvoorbeeld online al dat je dingen kan
80
00:08:35,040 --> 00:08:40,680
uitproberen. Dat vind ik, dat is nog wel in de ontwikkeling. Maar ik heb dat wel al gezien. Dat
81
00:08:40,680 --> 00:08:45,640
je dan voor de camera staat en dat je dan bijvoorbeeld een kleding item kan uitproberen.
82
00:08:45,640 --> 00:08:50,400
Dat je ziet hoe dat eruit ziet op jouw eigen lichaam. Ik hou echt niet van online shoppen.
83
00:08:50,400 --> 00:08:55,880
Maar omdat tegenwoordig alles steeds meer online wordt. Ze zijn er in de winkels, in de echte winkels
84
00:08:55,880 --> 00:08:59,720
steeds minder kleding. Winkels sluiten. Dus eigenlijk word je een soort van geforceerd om
85
00:08:59,720 --> 00:09:04,080
toch online te gaan shoppen. Maar het nadeel is dat je dan niet weet hoe het staat. Dat je gaat
00:09:04,080 --> 00:09:10,680
dit mee passen. En als er dan zo'n ontwikkeling in komt. Dat je jezelf kan zien met dat kledingstuk
86
00:09:04,080 --> 00:09:10,680
aan. En dat dat dan best wel goed eruit ziet. Ik vind dat best een fijne ontwikkeling.
87
00:09:10,680 --> 00:09:17,120
Nou en er zit meer aan vast. Want als jij weet hoe het bij jou staat. Kan je dat beter beoordelen.
88
00:09:17,120 --> 00:09:24,120
Bestel je waarschijnlijk minder. Want er zijn heel veel mensen die het in zoveel maten, zoveel
89
00:09:24,120 --> 00:09:28,880
kleuren. Dat soort dingen bestellen. En eigenlijk het grootste deel weer terugsturen. Wat uiteindelijk
90
00:09:28,880 --> 00:09:33,040
niet echt een hele duurzame optie is. Nee eigenlijk iedereen die ik ken die bestelt.
91
00:09:33,040 --> 00:09:38,040
Die bestelt altijd meerdere maten. Want dan zou je zou verzendkosten moeten betalen. Dan
92
00:09:38,040 --> 00:09:43,000
heb je dat maar één keer te doen. En maar één keer de retourkosten. En sommige, de meeste winkels
93
00:09:43,000 --> 00:09:47,720
hebben geen eens verzend- en retourkosten bij een bepaald aantal. Ja precies. Dus als je dat soort
94
00:09:47,720 --> 00:09:51,840
dingen gehoord zou hebben. Zou in ieder geval de kans groter zijn geweest. Dat je dat je dit zou in
95
00:09:51,840 --> 00:09:58,200
overweging zou hebben gedaan. Ja dat denk ik wel. Dus het zou niet alleen helpen. We waren even
96
00:09:58,200 --> 00:10:02,760
terug te komen dat het door een dame zou verteld worden. Dus het is een combinatie van verschillende
97
00:10:02,760 --> 00:10:07,600
rollen daar terug zien. En ook breder dan alleen de technische impact. En de technische implementatie.
98
00:10:07,600 --> 00:10:13,560
Maar ook de impact en de omgeving en de werkzaamheden. Ja het is echt een combinatie van
99
00:10:13,560 --> 00:10:17,640
dingen inderdaad. Ja en ja ik kan nooit 100% zeker weten als het op die manier ging. Wat ik dan had
100
00:10:17,640 --> 00:10:24,320
gedaan. Tuurlijk niet. Maar het zou zeker helpen in mijn opinie. Ja dus ook een call out naar iedereen
101
00:10:24,320 --> 00:10:30,840
die de jeugd presenteert over wat is het vakgebied. Breder dan een techniek en de implementatie. Maar
102
00:10:30,840 --> 00:10:37,080
ook even de context eromheen. Vergeet dat niet mee te nemen. En met waar en hoe je het kan toepassen.
103
00:10:37,080 --> 00:10:41,800
Ja wij geven zelf, Niels en ik geven zelf ook vaak presentaties. Overal en nergens. Wat zou
104
00:10:41,800 --> 00:10:49,640
nou een praktische tip misschien kunnen zijn. Als we dit brainstormen hier. Wat wij zouden kunnen
105
00:10:49,640 --> 00:10:56,160
doen om niet zeg maar die man te zijn die jij voor je neus hebt gehad. En we kunnen niet altijd
106
00:10:56,160 --> 00:11:05,000
iemand meenemen. Nee zeker waar. Want als man moet je natuurlijk ook het verhaal kunnen verkopen.
107
00:11:05,000 --> 00:11:09,880
Ik denk dat je dan misschien over je eigen ervaringen kan vertellen. Wat zichtbaar is
108
00:11:09,880 --> 00:11:21,280
naar de wereld toe. Dat je het echt tastbaar maakt voor mensen waar jij over vertelt. Want
109
00:11:21,280 --> 00:11:29,880
dat merk ik echt met informatica. Dat het best wel moeilijk is om wat jij maakt. Want wij schrijven
110
00:11:29,880 --> 00:11:36,880
natuurlijk code. Het is best wel abstract. Maar eigenlijk doen wij echt concrete dingen. De
111
00:11:36,880 --> 00:11:44,640
oplossingen die wij schrijven. Daar veranderen wij echt dingen mee die je in de wereld kan zien.
112
00:11:44,640 --> 00:11:50,160
Dus ik denk voor jullie. Mocht je zo'n presentatie willen geven. Dan zou ik echt
113
00:11:50,160 --> 00:11:55,880
focussen op dat past waar. Op de context. Op wat voor product het levert. Wat de impact daarvan is
114
00:11:55,880 --> 00:12:03,000
in de maatschappij. Of iets anders. Ja dat zou denk ik mijn advies zijn. Ja zeker. Die ga ik zeker
115
00:12:03,000 --> 00:12:12,960
meenemen. Dat is fijn om te horen. Ja zeg maar twee mensen heb je in ieder geval.
116
00:12:12,960 --> 00:12:17,720
Ja nee. Ik had zeker nog een vraag. Want wat is nou zeg maar. Want je bent vrijwilliger. Wat
117
00:12:17,720 --> 00:12:29,300
houdt dat in? Wat doe je concreet? Ik ben voornamelijk bezig met praten met andere
118
00:12:29,300 --> 00:12:38,280
bedrijven. En ervoor te zorgen dat zij ons willen helpen. In sponsoring. Of bijvoorbeeld het bieden
119
00:12:38,280 --> 00:12:46,520
van hun locatie. En door met grote bedrijven eigenlijk aan de praat te gaan. Wordt zij zich
120
00:12:46,520 --> 00:12:52,880
ook meer van bewust. Dat er een ja en eigenlijk een roep naar is. Om vrouwen te steunen in de
121
00:12:52,880 --> 00:13:01,720
informatica. In de AI. Dus het werkt dan beide kanten op. Want wij willen er dan voor zorgen
122
00:13:01,720 --> 00:13:08,840
dat vrouwen de kans krijgen om echt over hun verhaal te praten. Of ja we hebben eigenlijk
123
00:13:08,840 --> 00:13:17,120
verschillende programma's bij Women in AI. Een daarvan zijn Circles noemen we die. En die worden
124
00:13:17,120 --> 00:13:24,600
over verschillende steden gehouden. En dan komt er gewoon iemand praten die echt in de AI werkt. Een
125
00:13:24,600 --> 00:13:30,880
vrouw meestal. En zij gaat dan haar verhaal doen. En een discussie starten. En eigenlijk een beetje
126
00:13:30,880 --> 00:13:36,480
zoals wij hier aan het praten zijn. Maar dan gaan zij dat gesprek zelf voeren. En daar komen altijd
127
00:13:36,480 --> 00:13:42,000
zoveel meer perspectieven uit. Er komen verhalen uit. Vrouwen voelen zich ondersteund. Want je ziet
128
00:13:42,000 --> 00:13:48,160
allemaal andere vrouwen om je heen. En dat heb ik ook als ik daar ben. Als ik bij die meetings ben.
129
00:13:48,160 --> 00:13:52,360
Dan denk ik oh ja er zijn eigenlijk best wel veel vrouwen die in de AI werken. Dan denk ik wow wat
130
00:13:52,360 --> 00:13:58,000
leuk om te zien. En door onze samenwerking met andere bedrijven zorgen wij ervoor dat die bedrijven
131
00:13:58,000 --> 00:14:04,600
daar ook van op de hoogte zijn. Dat die mee willen werken. En zo worden zij ook meer op de hoogte
132
00:14:04,600 --> 00:14:11,560
van gesteld. En hopelijk een positieve verandering in die werksfeer te brengen. En ook denk een mooi
133
00:14:11,560 --> 00:14:18,000
moment. Maar dan kan jij misschien invullen of dat ook zo is. Dat je ook rolmodellen ziet.
134
00:14:18,000 --> 00:14:21,640
Van oh wat die doet dat wil ik ook wat meer doen. Om toch een beetje die connectie te hebben inderdaad.
135
00:14:21,640 --> 00:14:25,960
Ja ik had bijvoorbeeld laatst. Was ik aanwezig bij een van die Circles. En toen kwam er een vrouw
136
00:14:25,960 --> 00:14:33,400
praten van Elsevier. En dat is een grote publicatiejournaal in wetenschap. En ik heb
137
00:14:33,400 --> 00:14:39,640
best wel vaak bronnen van Elsevier gebruikt voor mijn scriptie. Dus het was voor mij heel erg
138
00:14:39,640 --> 00:14:45,240
surreal. Ook een beetje om te zien dat zij daar stond. Dacht ik oh wacht. Ik had eventjes een
139
00:14:45,240 --> 00:14:52,920
brein error. Ik kende Elsevier alleen maar van die bronnen. En je denkt er toch niet aan bijna
140
00:14:52,920 --> 00:14:59,000
dat er mensen ook echt werken daar. Laat staan vrouwen. En ze had echt een grote rol nog wel.
141
00:14:59,000 --> 00:15:05,320
En dan zij ging een beetje haar verhaal vertellen over hoe zij dat gebruiken. En de ethische kant
142
00:15:05,320 --> 00:15:13,240
ervan. En ja ik was er echt onder de indruk van. En ik vond het zo leuk om dat te horen.
143
00:15:13,240 --> 00:15:18,800
Want het is echt iets wat je veel gebruikt. En dan zie je het toch weer terug. En dat vond ik
144
00:15:18,800 --> 00:15:24,920
heel mooi. Heb je iemand die. Als je kijkt in de sector. Is er een of meerdere rolmodellen
145
00:15:24,920 --> 00:15:37,040
voor jou waar je zegt van die kant zou ik ook op willen groeien. Of daar kijk ik naar om van te
146
00:15:37,040 --> 00:15:42,320
leren. Eigenlijk de meeste vrouwen met wie ik in contact ben gekomen. Die ook werken in de. Ik
147
00:15:42,320 --> 00:15:50,120
heb niet een specifieke rolmodel. Maar eigenlijk iedereen met wie ik samenwerk die dingen doet
148
00:15:50,120 --> 00:15:56,920
in AI of informatica. Dat ik denk oh wauw jij bent echt een power lady. Ja er is hier ook bij
149
00:15:56,920 --> 00:16:05,760
ons op kantoor iemand. Elise. En ik heb gehoord naar haar presentatie. Samen met Jure wat dat
150
00:16:05,760 --> 00:16:13,760
had ze gedaan. En ik vond dat zo indrukwekkend. En ik zat daar naar te kijken en te luisteren.
151
00:16:13,760 --> 00:16:19,840
En ik was van wauw dit is echt super knap. En toen voelde ik mij toch een stukje trots van
152
00:16:19,840 --> 00:16:23,600
oh ja ook een andere vrouw eigenlijk die de power in handen neemt. En in de AI. Het was
153
00:16:23,600 --> 00:16:28,840
echt een grote ontwikkeling dat ze die doorvoert en doorpakt. En ja dat vond ik echt hartstikke
154
00:16:28,840 --> 00:16:35,440
mooi om te zien. Dus het zijn echt de mensen met wie ik ook samenwerk. En dat betekent niet
155
00:16:35,440 --> 00:16:40,880
dat ik me ook niet trots voelde voor Jure. Maar ja als het toch vanuit een dame komt. Want ze zijn
156
00:16:40,880 --> 00:16:47,360
er toch minder van. En ja dat vind ik het heel indrukwekkend om dat te zien. Ja want zou dat
157
00:16:47,360 --> 00:16:53,840
nog geholpen hebben in jouw middelbare schooltijd. Inderdaad dat er meer rolmodellen zijn die het
158
00:16:53,840 --> 00:16:59,040
podium gepakt hebben. Zodat je het vaker zou zien. Ja dat denk ik zeker wel. Want ja als je
159
00:16:59,040 --> 00:17:03,960
te horen grote namen gaat hebben van technologiebedrijven. Kom je vaak namen tegen zoals
160
00:17:03,960 --> 00:17:10,000
Steve Jobs, Elon Musk weet je wel. Het zijn allemaal mannen en zij bereiken geweldige dingen
161
00:17:10,000 --> 00:17:17,200
natuurlijk. Maar het zou ook zo fantastisch zijn als daar dan een keer een vrouw tussen zou zitten.
162
00:17:17,200 --> 00:17:21,600
Dat zij dan ook een grote ontwikkeling heeft gemaakt. De CEO van Booking.com. De grootste
163
00:17:21,600 --> 00:17:28,200
technologiebedrijf eigenlijk zeg maar buiten de big five. Ik heb haar een aantal keren op het
164
00:17:28,200 --> 00:17:37,560
podium gezien. Als je het dan hebt over iemand die het niet alleen gemaakt heeft. Maar ook weet
165
00:17:37,560 --> 00:17:43,600
waar ze het over heeft. Ja dat is geweldig om aan te horen. Zeker. Ja nee precies dat is wel geweldig
166
00:17:43,600 --> 00:17:50,000
dat dat inderdaad meer omhoog gaan komen. En ook de CEO van Calem. Dat is ook een vrouw. Dus dat is
167
00:17:50,000 --> 00:17:58,560
wel heel fantastisch dat dat echt meer opkomt. En ja ik vroeg me af hoe jullie eigenlijk daar
168
00:17:58,560 --> 00:18:04,440
verder in steken. Hoe zien jullie dat? Hoe bedoel je hoe zien jullie dat? De rolmodelontwikkeling
169
00:18:04,440 --> 00:18:11,480
of de groei? Ja eigenlijk een beetje dat het hele vrouwen in AI. Hoe zien jullie die ontwikkeling
170
00:18:11,480 --> 00:18:19,280
gaan? En wat denken jullie zelf dat je eraan kan? Ja ik zou niet willen zeggen oplossen maar
171
00:18:19,280 --> 00:18:26,640
misschien bijdragen. Ja bijdragen. Hopelijk dragen we door dit gesprek. En gesprekken die we hier
172
00:18:26,640 --> 00:18:32,160
vaker over hebben. Dit onderwerp is iets wat ons ook erg aan het hart gaat. We hebben het hier
173
00:18:32,160 --> 00:18:37,040
vaker over. We hebben ook meerdere gasten gehad. Als ik kijk naar de ontwikkeling die ik zie. Ik
174
00:18:37,040 --> 00:18:41,040
zie vooral veel wiskundige dames inderdaad die in de opleiding zitten. Dus nog steeds meer ook
175
00:18:41,040 --> 00:18:47,880
vanuit de wiskunde de AI en de artificial intelligence kunstmatig intelligentie ingaan.
176
00:18:47,880 --> 00:18:52,440
Dus dat vind ik een mooie ontwikkeling. Binnen de harde IT opleidingen en daarna AI gaan doen. Dat
177
00:18:52,440 --> 00:18:57,840
zie ik nog steeds wat minder. Zie ook wel wat groeien maar volgens mij minder. Dus ik zie met
178
00:18:57,840 --> 00:19:01,680
name meer van gerelateerde studies vanuit de inhoud en dan richting AI. En ja de techniek ingaan zie
179
00:19:01,680 --> 00:19:09,800
ik wel steeds vaak gebeuren. Hoe kunnen we zelf bijdragen? Nou hebben we net al een stukje gehoord
180
00:19:09,800 --> 00:19:14,600
over als we onze verhalen vertellen. De impact en de contexten van meenemen. En persoonlijk vind ik
181
00:19:14,600 --> 00:19:20,600
het mooi om op scholen te vertellen. En dan ook voorbeelden vanuit verschillende sectoren allemaal
182
00:19:20,600 --> 00:19:25,000
mee te nemen. Dus zowel bij jongens als meisjes dat het aan kan slaan dat het overal impact heeft.
183
00:19:25,000 --> 00:19:29,360
Ja want daar begint het. Ja dat is hoe ik het persoonlijk zou kunnen toevoegen.
184
00:19:29,360 --> 00:19:33,680
Nee dat is wel gewoon fijn dat je daar toch inderdaad mee bezig bent.
185
00:19:33,680 --> 00:19:38,600
Ja ik vind het sowieso zeg maar heel belangrijk. Kijken we de laat ik het zeg maar eerst is even
186
00:19:38,600 --> 00:19:47,680
vanuit het nerd perspectief. Zo heb je ons gekarakteriseerd. Ga ik daar even in zitten.
187
00:19:47,680 --> 00:19:55,560
Nee maar even vanuit als ik het eerst vanuit de techniek zeg maar behandel. Ik vind het sowieso
188
00:19:55,560 --> 00:20:00,400
zeg maar maatschappelijk vind ik het heel belangrijk maar ik ga even vanuit de techniek.
189
00:20:00,400 --> 00:20:03,880
Wat wij maken zijn modellen. Dus wij maken maatwerk modellen voor onze klanten. Om die
190
00:20:03,880 --> 00:20:12,200
modellen goed te laten presteren heb je diversiteit nodig in je data. En diversiteit bedoel ik dan niet
191
00:20:12,200 --> 00:20:20,040
alleen mannen vrouwen maar ook allerlei minderheidsgroepen alles. Dus dit vakgebied
192
00:20:20,040 --> 00:20:26,440
draait om eigenlijk een soort van balans in niet alleen in de data maar ook dus in perspectieven.
193
00:20:26,440 --> 00:20:34,280
Uiteindelijk stop je er altijd iets van je eigen, laten we het vooroordelen of je wereldperceptie
194
00:20:34,280 --> 00:20:45,200
laten we het zo noemen. Want vooroordelen is meteen zo. Maar het is ook zo negatief toch.
195
00:20:45,200 --> 00:20:50,120
Hoe je opgegroeid bent. Hoe je bent opgegroeid weet je. Je neemt jezelf mee en dat zijpelt door
196
00:20:50,120 --> 00:20:57,320
in een model. Toch? Dat is zeker zo. De keuzes die je maakt. Dus in die zin is het denk ik juist
197
00:20:57,320 --> 00:21:06,080
van wezenlijk belang dat als wij hele goede AI systemen willen maken en dat is de ambitie die
198
00:21:06,080 --> 00:21:11,640
we hebben. Is het dus nodig dat we gebalanceerde teams hebben en dat hoeft niet precies zoveel
199
00:21:11,640 --> 00:21:19,800
die en zoveel dat. Maar dat je diversiteit daarvan denk ik dat het heel belangrijk is om technisch
200
00:21:19,800 --> 00:21:26,560
goede dingen te maken. Daarna zei ik al van ja ik denk dat het maatschappelijk ook beter is en
201
00:21:26,560 --> 00:21:32,880
het maakt het werken met elkaar ook gewoon gevarieerder. Jij begon net over fashion.
202
00:21:32,880 --> 00:21:39,880
Dat zit echt gewoon bij mij in een blinde hoek. Ik heb nu een opdruk op mijn t-shirt.
203
00:21:39,880 --> 00:21:47,440
Ik ben van blauw naar groen gegaan maar dat is ook alles wat er verandert.
204
00:21:47,440 --> 00:21:51,960
Dus dat is mijn fashion ongeveer. Dus dat betekent dat je ook al gewoon echt
205
00:21:51,960 --> 00:21:57,840
echt serieus andere perspectieven hebt en ik denk dat ik dat heel dat vind ik heel belangrijk. Wat
206
00:21:57,840 --> 00:22:04,320
wat draag ik eraan bij? Hoe vind ik heel erg moeilijk bovenop inderdaad dit soort gesprekken.
207
00:22:04,320 --> 00:22:09,400
Maar ja dan veranderen we de wereld niet per se. Ik vind het eigenlijk al best wel mooi dat jij
208
00:22:09,400 --> 00:22:13,400
zegt vanuit de technische kant dat je de teams inderdaad gemixt wil hebben. Meerdere perspectieven,
209
00:22:13,400 --> 00:22:26,080
meerdere afkomsten. Want zoals je eigenlijk zei iedereen neemt een ander stukje mee vanuit huis.
210
00:22:26,080 --> 00:22:32,320
Iedereen is op een andere manier opgegroeid, neemt andere waarden en normen weet ik wel wat mee. En
211
00:22:32,320 --> 00:22:37,080
dat zie je zeker terug in die modellen. En er is volgens mij ooit een onderzoek geweest wat heeft
212
00:22:37,080 --> 00:22:42,000
laten zien dat als je echt gemixte teams hebt dat het ook efficiënter werkt. Omdat er meer
213
00:22:42,000 --> 00:22:49,000
perspectieven te zien zijn. Dus als je eigenlijk ergens vast komt te zitten en iemand denkt eventjes
214
00:22:49,000 --> 00:22:54,040
out of the box dan kom je al zoveel verder dan als iedereen precies op dezelfde manier nadenkt
215
00:22:54,040 --> 00:22:59,080
en ja straightforward een kant op haalt. Dus dat vind ik echt mooi dat je dat aangeeft.
216
00:22:59,080 --> 00:23:05,600
Ja en ik denk in de organisatie zelf, maar misschien kan je dat straks over een aantal
217
00:23:05,600 --> 00:23:12,440
jaar beter beoordelen, is dat er hier geen verschil wordt gemaakt in man vrouw. Want
218
00:23:12,440 --> 00:23:19,120
dat hoor je natuurlijk ook heel vaker dat vrouwen uiteindelijk minder groeikansen hebben,
219
00:23:19,120 --> 00:23:25,000
minder salaris krijgen, minder kans krijgen. Ik denk dat we daar zeg maar scherp op zijn.
220
00:23:25,000 --> 00:23:33,200
Dat zou niet kunnen mogen moeten. Nee dat is absurd. Maar dat gebeurt natuurlijk in heel veel
221
00:23:33,200 --> 00:23:41,840
organisaties wel en dat is echt wel heel pijnlijk. Ik heb dat zelf niet meegemaakt. Ik wil niet eens
222
00:23:41,840 --> 00:23:47,320
zeggen nog niet, want ik ga gewoon blij dat ik dat niet meemaak ooit. Maar het gebeurt zeker wel. En
223
00:23:47,320 --> 00:23:54,520
ja ik denk ook dat vrouwen best wel een nadeel hebben dat zij degenen zijn die dan kinderen
224
00:23:54,520 --> 00:24:00,040
baren, zwanger worden, dat soort dingen. Want daardoor denk ik dat die discriminatie eigenlijk
225
00:24:00,040 --> 00:24:08,760
een stuk hoger wordt. Omdat je stel je kinderen en de meeste vrouwen willen dat, mannen ook,
226
00:24:08,760 --> 00:24:14,600
maar ja zij zijn niet degene die het kind gaan baren. Ja die moeten toch dan op verlof,
227
00:24:14,600 --> 00:24:19,440
waardoor je een stukje werktijd gewoon mist. En dat is hartstikke jammer. En als een werkgever
228
00:24:19,440 --> 00:24:27,280
zich daardoor anders gaat opstellen, dat hij je dan niet aanneemt of geen promotie geeft. Want
229
00:24:27,280 --> 00:24:35,560
ja je gaat een stukje werktijd missen. Ik snap dat de werktijd missen hartstikke belangrijk is.
230
00:24:35,560 --> 00:24:41,560
Maar goed eigenlijk zou het dan ook voor mannen wat eerlijker getrokken moeten worden in het
231
00:24:41,560 --> 00:24:46,600
verlof. Want die moeten dan eigenlijk ook wat meer verlof krijgen, want zij worden ook vader,
232
00:24:46,600 --> 00:24:52,680
hun leven veranderd. Helemaal, helemaal. Helemaal aan de kant op. Maar ik wil een beetje terug naar
233
00:24:52,680 --> 00:25:02,600
de AI. We zitten in de AI podcast en het leuke is we hebben een ingestuurde vraag van de luisteraar
234
00:25:02,600 --> 00:25:09,120
en die wil ik jou heel graag voorleggen. Oké leuk. De vraag van de week is deze week.
235
00:25:09,120 --> 00:25:16,480
Hi ik ben Maaike, manager marketing en communicatie. Wat is volgens jullie de
236
00:25:16,480 --> 00:25:22,440
grootste misvattingen over AI? Oeh, grootste misvatting. Ja ik kan hier wel lekker los over
237
00:25:22,440 --> 00:25:29,880
gaan. Want ik vind de grootste misvatting is dat mensen er echt zo bang voor zijn. Ze zijn van ja,
238
00:25:29,880 --> 00:25:36,960
AI die gaat je leven overnemen. Je hebt ook op Netflix Black Mirror. Ja. En daar komen best wel
239
00:25:36,960 --> 00:25:43,720
van die spicy afleveringen over hoe AI of technologie je hele leven overneemt en je
240
00:25:43,720 --> 00:25:50,320
leven verpest. En ja, ik zie het allemaal niet zo somber in. Ja, gewoon met de nieuwste technologie,
241
00:25:50,320 --> 00:26:00,520
bijvoorbeeld die VR-app deel van Apple. Dat je omgeving eigenlijk allemaal 3D wordt. Hartstikke
242
00:26:00,520 --> 00:26:07,240
coole ontwikkeling. Super gaaf dat dat kan. Maar sommige mensen zitten er al helemaal negatief
243
00:26:07,240 --> 00:26:12,160
over en denken van ja, als dit al een ontwikkeling wordt, kan je mensen blokken weet je wel. Dat
244
00:26:12,160 --> 00:26:16,720
zagen ze dan van die Netflix show. Straks neemt het onze hele leven over. Onze banen gaan allemaal
245
00:26:16,720 --> 00:26:24,520
overgenomen worden. Ik denk dat het echt een van de grootste misvattingen is over AI. Want ik zie
246
00:26:24,520 --> 00:26:32,880
AI meer als hulpmiddel. Het gaat onze leven makkelijker maken. En eigenlijk zoals ik al
247
00:26:32,880 --> 00:26:38,160
eerder had gezegd, we gebruiken AI al in het dagelijks leven. Maar mensen realiseren zich
248
00:26:38,160 --> 00:26:43,160
dat gewoon niet. En als er dan ineens van die grote tussen aanhalingstekens ontwikkelingen komen,
249
00:26:43,160 --> 00:26:49,680
dan worden ze ineens bang. Terwijl ze zich niet beseffen, oh wacht, we gebruiken dit al,
250
00:26:49,680 --> 00:26:54,200
dit bestaat al langer. Dus ja, dat vind ik wel jammer om te zien. En ik hoop dat door over daar
251
00:26:54,200 --> 00:27:00,880
misschien meer te praten, dat die misvatting in elk geval verdwijnt. Ik vraag me af wat jullie de
252
00:27:00,880 --> 00:27:10,720
grootste misvattingen in AI vinden. Dat zit een beetje in het raakvlak van deze. Is dat nu
253
00:27:10,720 --> 00:27:17,320
gedacht wordt dat GAI, dus General Artificial Intelligence, al echt op de hoek staat. Maar
254
00:27:17,320 --> 00:27:26,640
ja, dat is er nog helemaal niet. Het echt context hebben en het begrijpen van zaken,
255
00:27:26,640 --> 00:27:31,520
dat is er gewoon nog niet. Het weet patronen goed te herkennen, maar ChatGPT weet niet wat een
256
00:27:31,520 --> 00:27:36,680
appel of een of een steen is of wat een bom is. Dat moet hem getraind worden. Maar dat mensen wel
257
00:27:36,680 --> 00:27:42,040
bedenken dat die context awareness er is. Ja, nee, dat is inderdaad ook een hele belangrijke.
258
00:27:42,040 --> 00:27:48,520
Want ze gaan er inderdaad van uit dat AI echt een volledig brein is, eigenlijk bijna een mens.
259
00:27:48,520 --> 00:27:55,560
Misschien zelfs nog slimmer dan een mens. En natuurlijk in sommige vlakken, zoals bijvoorbeeld
260
00:27:55,560 --> 00:27:59,760
schaken, is AI gewoon veel beter. Maar zoals je zegt, ChatGPT weet echt niet wat een appel is
261
00:27:59,760 --> 00:28:06,600
of een steen. Het heeft helemaal geen bewustzijn. Ik heb toch het idee dat mensen wel geloven dat
262
00:28:06,600 --> 00:28:13,400
dat eraan komt of dat dat er zelfs al is. Voor mij is de grootste misvatting het idee van mensen
263
00:28:13,400 --> 00:28:21,160
die denken dat AI eigenlijk iets van de laatste periode is. En de laatste periode is dan eigenlijk
264
00:28:21,160 --> 00:28:27,880
vanaf 30 november 2022 de introductie van ChatGPT. Dat is voor heel veel mensen eigenlijk
265
00:28:27,880 --> 00:28:35,200
de start van AI. En als je dat als startpunt neemt en kijkt wat er dan nu is, is er het gevoel dat
266
00:28:35,200 --> 00:28:44,400
er nou als het ware een tsunami over je heen komt aan technologie. En dus heel veel mensen hebben
267
00:28:44,400 --> 00:28:51,960
helemaal geen idee dat dit idee komt uit de jaren 50, in de jaren 80 hebben we het al over
268
00:28:51,960 --> 00:28:59,040
neurale netwerken. Dat het eigenlijk een opeenstapeling is van hele dunne laagjes aan
269
00:28:59,040 --> 00:29:05,280
technologie verbetering, af en toe een doorbraak. Zij hebben nu alleen één grote doorbraak gezien
270
00:29:05,280 --> 00:29:12,160
en dat is die van de transformers als technologie. Maar het idee zeg maar dat alles nu zo hard gaat
271
00:29:12,160 --> 00:29:20,120
en in dezelfde harde rechte lijn omhoog, ja dat is voor mij denk ik de grootste misvatting.
272
00:29:20,120 --> 00:29:26,200
Dan wil ik die nog wel even aanvullen. ChatGPT/Gen AI is niet AI. AI is veel meer dan dat.
273
00:29:26,200 --> 00:29:34,200
En dat is wel de beleving op dit moment. Ja nee, dat zijn echt hele valide punten ook. In mijn
274
00:29:34,200 --> 00:29:43,520
master was ik bezig met een video game vak, maar het was een soort onderzoeksvak, dus wij moesten
275
00:29:43,520 --> 00:29:52,360
een onderzoek uiteindelijk maken. En wij hadden toen eigenlijk een hele primitieve versie van
276
00:29:52,360 --> 00:29:58,520
ChatGPT gemaakt, maar ChatGPT op dat moment was er nog niet. Die doorbraak was er nog niet.
277
00:29:58,520 --> 00:30:04,880
En eigenlijk toen wij klaar waren, toen kwam ChatGPT ineens uit. En dat was heel grappig om dat
278
00:30:04,880 --> 00:30:10,000
te zien, want wij hadden echt een hele basisversie daarvan gemaakt. En toen kwam die doorbraak en
279
00:30:10,000 --> 00:30:15,520
wow dit gaat de wereld zo doorheen, kijk wat er al gebeurt. Terwijl wij een paar weken geleden
280
00:30:15,520 --> 00:30:21,160
daar ook al mee bezig waren. Mensen beseffen zich niet dat inderdaad deze ontwikkelingen
281
00:30:21,160 --> 00:30:27,080
al, of deze ideeën tenminste, al zo lang bestaan. Maar dat ze beetje bij beetje ontwikkeld worden.
282
00:30:27,080 --> 00:30:34,400
En inderdaad als er dan een keer iets is wat echt goed ontwikkeld is, dan komt er ineens een
283
00:30:34,400 --> 00:30:39,400
doorbraak en lijkt het heel hard te stijgen voor mensen. Maar eigenlijk voor de techneuten onder
284
00:30:39,400 --> 00:30:45,040
ons weten wij dat dat niet het geval is. En dat het echt in een constante lijn is gegaan. En dat
285
00:30:45,040 --> 00:30:53,440
er heel veel ontwikkeling in zit, heel veel onderzoek. En dat dat niet in één nacht gebeurt
286
00:30:53,440 --> 00:30:58,560
dat je ineens zoiets kan maken. Absoluut. Ik wil nog even terug ook weer naar Women in AI.
287
00:30:58,560 --> 00:31:08,320
Zijn er specifieke thema's die spelen op dit moment? Nou toevallig, qua thema's,
288
00:31:08,320 --> 00:31:19,560
Women in AI heeft elk jaar nominaties voor vrouwen om zich te nomineren. Sowieso in AI,
289
00:31:19,560 --> 00:31:28,400
maar bijvoorbeeld beste onderzoeker, beste entrepreneur, beste start-up, zeg maar,
290
00:31:28,400 --> 00:31:36,280
vrouwen die in start-up zitten. Je hebt volgens mij zes categorieën en er worden daar heel veel
291
00:31:36,280 --> 00:31:43,240
vrouwen voor opgegeven. Dus hierbij, mocht je een vrouw kennen in de AI en wil je haar opgeven
292
00:31:43,240 --> 00:31:48,800
voor deze award, het wordt een prijs. Oh, je kan echt iemand zelf aandragen? Ja, je kan zelf,
293
00:31:48,800 --> 00:31:54,400
maakt niet uit wie je bent of waar je vandaan komt. Je kan vrouwen nomineren. Wij zullen in
294
00:31:54,400 --> 00:32:01,520
ieder geval een link in de show notes even opnemen waar je iemand kan nomineren. En eigenlijk wat er
295
00:32:01,520 --> 00:32:07,600
dan gebeurt is, er is echt een jury daarvoor en in die jury zit ook de vrouw die vorig jaar heeft
296
00:32:07,600 --> 00:32:14,720
gewonnen. Zij gaan dan kijken naar wie de beste kandidaten zijn en de beste drie worden dan bij
297
00:32:14,720 --> 00:32:23,200
de summit. Dat heet de summit. Daar kunnen zij hun idee pitchen, waar zij voor staan, waarom zij
298
00:32:23,200 --> 00:32:28,520
zouden moeten winnen. En uiteindelijk de winnaar die krijgt dan een poster van e-calls, dit op
299
00:32:28,520 --> 00:32:37,240
Internationale Vrouwendag op 8 maart. Komt dat in een van de steden, je hebt in Amsterdam die
300
00:32:37,240 --> 00:32:44,600
posters, Den Haag, Rotterdam. Ja, dat zijn die hele grote posters waarin eigenlijk jij als vrouw
301
00:32:44,600 --> 00:32:51,200
staat met een beetje een quote van jou en wat jij doet. En dat is echt super gaaf vind ik.
302
00:32:51,200 --> 00:32:57,760
Lachen. Volgens mij winnen er drie vrouwen en worden er zes door naar de nominaties. Maar
303
00:32:57,760 --> 00:33:03,440
de details kan je natuurlijk later terugvinden. Maar dat is echt heel gaaf, want dan kan jij je
304
00:33:03,440 --> 00:33:09,360
eigen verhaal vertellen. En er is ook een gala van Women in AI, dat is altijd in het begin van het
305
00:33:09,360 --> 00:33:15,920
jaar in februari. En daar wordt dan de winnaar bekendgemaakt. Dus de vrouwen die door de nominaties
306
00:33:15,920 --> 00:33:22,080
zijn, die worden ook uitgenodigd. Sommige worden dan nog gesponsord door bedrijven. Die gaan dan
307
00:33:22,080 --> 00:33:28,720
zich aan tafel zetten met die bedrijven en ermee praten. En als jij wint, dan mag jij ook echt een
308
00:33:28,720 --> 00:33:35,720
speech geven. En ik vind dat echt een super gaaf idee en concept, want dan kan je je verhaal wat
309
00:33:35,720 --> 00:33:43,480
bekender maken, wie jij bent, waarom jij het verdient om zo'n prijs te krijgen als vrouw
310
00:33:43,480 --> 00:33:49,760
in AI. En er komt gewoon een poster van je in de stad. Heel mooi. We hadden het over rolmodellen,
311
00:33:49,760 --> 00:33:56,440
volgens mij is dit een manier om rolmodellen te creëren voor de toekomstige werkmens inderdaad.
312
00:33:56,440 --> 00:34:01,280
Dus dat is echt fantastisch als dat zo gebeurt. Zijn er nog bepaalde criteria waar dan op gelet
313
00:34:01,280 --> 00:34:08,600
wordt? Weet je dat toevallig? Dat weet ik eventjes niet zo uit mijn hoofd, maar ik denk afhankelijk
314
00:34:08,600 --> 00:34:14,840
van de categorie waar je in zit, dat je wel een vrouw moet zijn. Ja, lijkt me logisch. Ja en verder
315
00:34:14,840 --> 00:34:25,000
volgens mij kan je bijna echt iedereen nomineren als je een gevoel hebt van, oh ja, zij doet haar
316
00:34:25,000 --> 00:34:29,800
baan heel goed of in die categorie vind ik dat zij moet winnen. Dus ja, kijk daar voordat even naar.
317
00:34:29,800 --> 00:34:35,800
Mooi, heel mooi. Ik zie je al schudden Joop. Ja, ik ga zo de kaarten schudden. We hebben een
318
00:34:35,800 --> 00:34:42,640
kaartspel ontwikkeld, Niels en ik, met allemaal stellingen daarop in zes verschillende categorieën.
319
00:34:42,640 --> 00:34:50,320
En het idee is dat je zo'n stelling, dat je een stelling op tafel legt. Het leukste is als je
320
00:34:50,320 --> 00:34:56,160
dit met z'n vieren speelt in het kader van verschillende perspectieven. En mensen kunnen
321
00:34:56,160 --> 00:35:03,720
dan met de kaarten, kunnen zij dicht, kunnen ze stemmen, van ben ik oneens of eens in de stelling.
322
00:35:03,720 --> 00:35:10,200
Als iedereen de kaart op tafel heeft gelegd, leg je hem open. Speel je dus open kaart. En kan je
323
00:35:10,200 --> 00:35:17,800
elkaars perspectief zeg maar op zo'n stelling, kan je met elkaar delen, waarom denk je er zo over,
324
00:35:17,800 --> 00:35:23,400
nou wat betekent dat voor mij, zouden daar misschien acties uit moeten komen,
325
00:35:23,400 --> 00:35:27,440
als we daar het met elkaar eens of oneens zijn. Het zorgt ervoor dat je, voor discussie,
326
00:35:27,440 --> 00:35:36,720
maar ook het is een heel mooi startpunt om je AI strategie of je AI beleid om daar invulling
327
00:35:36,720 --> 00:35:42,600
aan te geven. Dus het zijn allemaal vragen eigenlijk, die als je die allemaal af zou
328
00:35:42,600 --> 00:35:47,200
gaan, nou dan heb je een hele flinke start van je AI strategie of beleid. Nou gaan we ze niet
329
00:35:47,200 --> 00:35:52,920
allemaal aflopen. Het is een flinke stapel. Ik ga jou daar zo direct een stelling uit voorleggen.
330
00:35:52,920 --> 00:35:59,760
Oké, ik heb er zin in.
331
00:35:59,760 --> 00:36:00,880
[muziek]
332
00:36:00,880 --> 00:36:19,880
En de stelling zit in de categorie gebruik en toepassingen. En de stelling is generatieve AI
333
00:36:19,880 --> 00:36:26,120
zal de ervaring van onze klanten personaliseren.
334
00:36:26,120 --> 00:36:29,520
Ja, moet ik het nu gelijk zeggen of ik het er mee eens ben?
335
00:36:29,520 --> 00:36:35,240
Ja, doe maar.
336
00:36:35,240 --> 00:36:35,760
Ja, ik ben het daar eigenlijk wel mee eens. Want ik denk dat generatieve AI,
337
00:36:35,760 --> 00:36:42,560
dat dat al jouw producten eigenlijk kan personaliseren, omdat je je eigen input
338
00:36:42,560 --> 00:36:51,960
kan meegeven. En ja, die AI modellen gaan daar iets van meemaken, wat echt gebaseerd is op jouw
339
00:36:51,960 --> 00:36:58,640
persoonlijke voorkeuren.
340
00:36:58,640 --> 00:36:59,760
Het passen waar je het straks over had, is daar denk ik ook een toepassing van.
341
00:36:59,760 --> 00:37:04,720
Ja, precies. Dus ja, ik ben het er gewoon hartstikke mee eens. En ik vind de opkomst van
342
00:37:04,720 --> 00:37:11,160
generatieve AI ook super cool. En ik vind dat het echt doorontwikkeld moet worden.
343
00:37:11,160 --> 00:37:16,440
En het zou heel leuk zijn als klanten daar ook iets mee willen en kunnen doen.
344
00:37:16,440 --> 00:37:21,320
En dan ben ik toch benieuwd hoe jullie daarin zitten.
345
00:37:21,320 --> 00:37:25,880
Ja, ik eens. Al is het alleen maar dat we het werk efficiënter kunnen doen. Dus je hebt ook
346
00:37:25,880 --> 00:37:32,040
meer tijd om het te kunnen personaliseren. Zelfs als het model en de AI/GenAI daar nog
347
00:37:32,040 --> 00:37:36,480
niet bij helpt. Door je werk daarin verder te automatiseren, heb je ook meer tijd.
348
00:37:36,480 --> 00:37:40,520
Dus dan kan je als klantmedewerker ook meer tijd voor de personalisatie doen.
349
00:37:40,520 --> 00:37:44,600
Dus het zit win-win op de techniek en win-win op de menselijke kant, wat mij betreft.
350
00:37:44,600 --> 00:37:48,160
Ja, en jij hebt het over communicatie. Communicatie is toch ook nog best wel heel
351
00:37:48,160 --> 00:37:52,920
veel geschreven tekst. En het mooie is dat je nu zeg maar dan kan aangeven van,
352
00:37:52,920 --> 00:37:57,840
nou, dit zijn de kernelementen die ik wil communiceren. En dat je dat nu makkelijk
353
00:37:57,840 --> 00:38:03,920
kan personaliseren. Want deze systemen, modellen zijn natuurlijk heel goed in
354
00:38:03,920 --> 00:38:09,720
schrijven. Dus je kan zeggen, ja, maar als het gaat over min, je communiceert met
355
00:38:09,720 --> 00:38:16,280
jong adolescent. Weet je, kan je dat opgeven, kan je dat daar naartoe personaliseren. Of je
356
00:38:16,280 --> 00:38:25,080
zegt van ja, maar dit gaat voor iemand met een wat lager taalniveau, kan je dat personaliseren.
357
00:38:25,080 --> 00:38:31,160
Dus ik denk dat dat heel veel gaat helpen als je dit inzet om je communicatie vooral ook
358
00:38:31,160 --> 00:38:36,400
effectiever te maken. Ja, en dan weet je ook altijd eigenlijk dat het bijna altijd goed gaat.
359
00:38:36,400 --> 00:38:40,160
Want als je die eisen opgeeft, dan ben je bijna van gegarandeerd dat dat ook op die manier als
360
00:38:40,160 --> 00:38:46,280
uitkomst zou komen. Dus dat is een goede punten, ja.
361
00:38:46,280 --> 00:38:49,640
Als we nou eens kijken naar misschien een klein stukje de toekomst met Women in AI.
362
00:38:49,640 --> 00:39:13,640
Wat zou je willen? Waar misschien persoonlijk of qua organisatie, welke verandering wil je
363
00:39:13,640 --> 00:39:24,040
teweeg hebben gebracht? Ik denk dat ik zelf uiteindelijk wel een rolmodel zou willen worden.
364
00:39:24,040 --> 00:39:31,600
Omdat ik, ja, ik wil gewoon echt mij van alles, al mijn kanten laten zien daarin. Ik wil aan alle
365
00:39:31,600 --> 00:39:40,400
andere vrouwen zien van kijk, dit kan je gewoon bereiken. En ik ben daar ook hard mee bezig.
366
00:39:40,400 --> 00:39:44,960
En in welke vorm? Ja, toch misschien iets iets groots maken of in werk of gewoon überhaupt in
367
00:39:44,960 --> 00:39:53,640
vrouwen inspireren. Ja, ik ben er niet helemaal over uit hoe dat de vorm wordt gegeven. Maar
368
00:39:53,640 --> 00:40:02,440
vooral echt het doorgroeien daarin. Dat ik eigenlijk altijd on-top of die AI ontwikkeling blijf, daar op
369
00:40:02,440 --> 00:40:09,360
de hoogte van goud blijf worden. En ik vind het daarom ook hartstikke geweldig om deze podcast
370
00:40:09,360 --> 00:40:13,920
nu met jullie te bespreken. Want dit is toch weer een stapje richting die rolmodel worden.
371
00:40:13,920 --> 00:40:19,400
Kunnen mensen je al ergens volgen? Ja, sowieso op LinkedIn. En toevallig heb ik ook zelf een
372
00:40:19,400 --> 00:40:28,720
Instagram account waarin ik vrouwen wil inspireren. Waar vinden ze die? Hebben jullie de tag? Ja,
373
00:40:28,720 --> 00:40:37,240
dat heet #womenintech. Oh, dat is makkelijk te onthouden. Ja, dus misschien als we dat ook in
374
00:40:37,240 --> 00:40:45,000
de discussie... Uiteraard, dan zetten we even een show-note. Zeker. Oh, sorry, het heet trouwens
375
00:40:45,000 --> 00:40:51,480
#techforwomen. We gaan naar een andere organisatie. Tech for women. Ja, en ook wil ik women in AI
376
00:40:51,480 --> 00:41:03,480
zelf helpen om groter te worden. En waarschijnlijk gaan wij ook uitbreiden naar Benelux. Dus trouwens
377
00:41:03,480 --> 00:41:12,240
voor die nominaties moet je ook mensen, vrouwen uit België of Luxemburg kennen nomineren. Dat
378
00:41:12,240 --> 00:41:16,560
kan ook. Want we willen steeds groter worden. We willen steeds meer vrouwen erbij betrekken. En ja,
379
00:41:16,560 --> 00:41:23,120
we zijn ook steeds meer aan het uitbreiden in Nederland zelf. We hebben nu ook in Eindhoven
380
00:41:23,120 --> 00:41:27,120
bijvoorbeeld een cirkel. Dus ik wil gewoon echt daarin groeien. Mijn skills ontwikkelen,
381
00:41:27,120 --> 00:41:33,840
met mensen kunnen praten en echt met vertaal kunnen vertellen van AI is hartstikke leuk,
382
00:41:33,840 --> 00:41:39,320
hartstikke gaaf. En je hoeft er niet bang voor te zijn. Is er nog een hulp die jij kan gebruiken
383
00:41:39,320 --> 00:41:46,960
om het doel wat je voor jezelf gesteld hebt voor elkaar te krijgen? Is dat dat je ergens wil spreken
384
00:41:46,960 --> 00:41:52,280
op conferenties? Dat mensen die nu luisteren, die zoiets aan het organiseren zijn, die een sessie
385
00:41:52,280 --> 00:41:57,000
zou willen. Wat zijn zaken die jou daarin kunnen helpen? En ik zou zeggen, speak up. Ja, doe
386
00:41:57,000 --> 00:42:02,240
het op. Ja, ik vind spreken hartstikke leuk, omdat er komen zoveel perspectieven vrij. En nu ook na
387
00:42:02,240 --> 00:42:09,080
dit gesprek met jullie denk ik, ik ben ook weer zoveel wijzer in geworden. Dus ja, ik zou graag
388
00:42:09,080 --> 00:42:14,560
gewoon meer willen spreken natuurlijk. En toevallig ga ik ook op een conferentie in Canada spreken
389
00:42:14,560 --> 00:42:20,320
binnenkort. Mijn scriptie is een paper geworden. Die is gepubliceerd, die is geaccepteerd ook. En
390
00:42:20,320 --> 00:42:30,000
daar die ga ik uitleggen, die ga ik presenteren. En dat ging over het optimaliseren van busroutes,
391
00:42:30,000 --> 00:42:35,800
elektrische busroutes met AI. Over impact gesproken? Ja, dus ik ben ook, ik ben niet
392
00:42:35,800 --> 00:42:44,000
alleen bezig om die impact te vergroten vanuit de sprekerskant, maar ook zeker vanuit de technische
393
00:42:44,000 --> 00:42:48,880
kant. En ik vind modellen schrijven echt geweldig. Ik vind machine learning zo leuk. En ik heb daar
394
00:42:48,880 --> 00:42:55,160
zeker niet over uitgeleerd. En daarom wil ik daar echt verder in gaan ontwikkelen. Dus ja,
395
00:42:55,160 --> 00:43:01,080
het lijkt me geweldig om beide werelden eigenlijk te combineren en zo door te groeien daarin.
396
00:43:01,080 --> 00:43:05,440
Mooi om te zien dat je ook straalt als je dit uitspreekt. Dat kunnen de luisteraars niet zien,
397
00:43:05,440 --> 00:43:09,160
maar er staat echt een energie en uitstraling. Dat geeft gewoon energie af. Heel mooi om te zien.
398
00:43:09,160 --> 00:43:14,520
Dank je wel, Suzan, voor het inkijkje in de Women in AI, maar vooral eigenlijk ook
399
00:43:14,520 --> 00:43:19,800
ja, je openhartigheid over waar je zelf naartoe wil groeien. Heel erg mooi. Dank je wel.
400
00:43:19,800 --> 00:43:25,160
Ja, en jullie echt heel erg bedankt. Ik vond het hartstikke leuk om hier te spreken. Bedankt.
401
00:43:25,160 --> 00:43:29,840
Leuk dat je weer luisterde naar een aflevering van AIToday Live. Je hebt het kaartspel,
402
00:43:29,840 --> 00:43:38,120
heb je natuurlijk gehoord. En die kan je gewoon gratis bestellen. Als je eventjes naam en adres
403
00:43:38,120 --> 00:43:44,280
opgeeft, ook weer een link in de show notes, dan krijg je hem thuis gestuurd via onze website.
404
00:43:44,280 --> 00:43:49,800
En wat ik al zei, het is een hele leuke manier om je AI beleid en strategieën te bediscussiëren.
405
00:43:49,800 --> 00:43:58,360
Zeker. Tot de volgende keer.
406
00:43:58,360 --> 00:44:00,120
[Muziek]
407
00:44:00,120 --> 00:44:04,120
[Muziek]