AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E03 - Generatieve AI in bedrijfsprocessen: wat je moet weten - met Peter van der Putten
Peter van der Putten, hoofd van het AI-lab bij Pegasystems, bespreekt de integratie van AI en automatisering in klantenservice en bedrijfsprocessen. Hij belicht de opkomst van generatieve AI en agent-gebaseerde systemen die de interactie tussen mens en machine veranderen.
Van der Putten legt uit hoe Pegasystems AI koppelt aan automatisering om waarde te creëren voor bedrijven. Hij deelt inzichten over toepassingen in klantenservice, zoals het samenvatten van gesprekken en het trainen van medewerkers met gesimuleerde interacties.
De ethische aspecten en het belang van menselijke controle bij AI-systemen komen aan bod. Van der Putten benadrukt de noodzaak van transparantie en betrouwbaarheid in wat hij "accepted intelligence" noemt.
Onderwerpen
- Integratie van AI en automatisering in klantenservice
- Opkomst van generatieve AI
- Toepassingen van AI in klantenservice
- Agent-gebaseerde systemen
- Ethiek en menselijke controle in AI
- Podcast: AIToday Live podcast
- Organisatie: Pegasystems AI Lab
- Universiteit: Universiteit Leiden
- Film: Her
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Pegasystems
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:07,040
In deze aflevering hoor je Peter van de Putten, hoofd van het AI-lab bij Pegasystems, over
2
00:00:07,040 --> 00:00:13,000
hoe AI en automatisering steeds meer samensmelten in customer service en bedrijfsprocessen.
3
00:00:13,000 --> 00:00:21,000
Peter deelt unieke inzichten over de opkomst van generatieve AI en agent-based systemen
4
00:00:21,000 --> 00:00:26,120
en hoe deze technologieën de interactie tussen mens en machine fundamenteel veranderen.
5
00:00:26,121 --> 00:00:27,120
Hoi, leuk dat je luistert naar een nieuwe
6
00:00:27,120 --> 00:00:28,120
aflevering van AIToday
7
00:00:32,119 --> 00:00:33,960
Live, we zitten al in seizoen 7.
8
00:00:33,960 --> 00:00:35,840
Dit gaat hard, hè?
9
00:00:35,840 --> 00:00:36,260
Zeker.
10
00:00:36,260 --> 00:00:43,280
We zeiden net eigenlijk al, het wordt een gezellig gesprek over kunstmatige intelligentie.
11
00:00:43,280 --> 00:00:46,300
En daar hebben we een gast voor uitgenodigd, Peter van der Putten.
12
00:00:46,300 --> 00:00:48,640
We zijn heel erg benieuwd naar zijn ervaringen.
13
00:00:48,640 --> 00:00:51,820
Echt een expert op het gebied van kunstmatige intelligentie.
14
00:00:51,820 --> 00:00:54,400
Mijn naam, Joop Snijder, CTO bij Aigency.
15
00:00:54,400 --> 00:00:57,560
Mijn naam, Niels Naglé, Area Lead Data & AI bij Info Support.
16
00:00:57,560 --> 00:01:00,380
Peter, dank je wel dat je bij ons in de studio wil zijn.
17
00:01:00,380 --> 00:01:02,900
Zou je je als willen voorstellen aan de luisteraars?
18
00:01:02,900 --> 00:01:05,900
Absoluut. Ik ben Peter van der Putten.
19
00:01:05,900 --> 00:01:09,400
Ik draag een aantal verschillende petten.
20
00:01:09,400 --> 00:01:14,340
Allereerst ben ik baas van het AI Lab van een Amerikaans softwarebedrijf.
21
00:01:14,340 --> 00:01:20,480
Dat heet Pegasystems, waar we AI en automation gebruiken in Customer Service en Customer Business Operations.
22
00:01:20,480 --> 00:01:23,380
Een bedrijf van ongeveer 6-7 duizend werknemers.
23
00:01:23,380 --> 00:01:27,380
En ik mag daar leuk spelen met AI innovatie.
24
00:01:28,640 --> 00:01:32,520
Daarnaast ben ik ook nog één dag in de week onderzoeker aan de Universiteit Leiden.
25
00:01:32,520 --> 00:01:37,060
Daar ben ik ook al een aantal ION's aan verbonden, sinds 1998 ongeveer.
26
00:01:37,060 --> 00:01:46,440
En als ik dan nog tijd over heb, dan vind ik het ook nog wel leuk om te spelen met AI een beetje in het creatieve, artistieke domein.
27
00:01:47,020 --> 00:01:47,440
Leuk.
28
00:01:47,440 --> 00:01:51,700
Ja, over dat artistieke domein, daar wil ik straks wel inderdaad wel wat van weten.
29
00:01:51,700 --> 00:01:53,180
Daar had ik wat over gelezen.
30
00:01:53,180 --> 00:01:56,280
Maar ik wil eigenlijk beginnen bij dat AI Lab.
31
00:01:56,280 --> 00:01:59,400
Wat is een AI Lab en wat doen jullie daarin?
32
00:02:00,340 --> 00:02:10,139
Ja, dus zoals ik al zei, Pega is een bedrijf waarbij in die kern wat we doen is AI en automation met elkaar verbinden.
33
00:02:10,139 --> 00:02:17,920
Een beetje vanuit de gedachte dat intelligence of AI leuk is, maar als je het niet aan actie kan verbinden, dan is het pretty useless.
34
00:02:20,220 --> 00:02:23,660
En ik rapporteer aan onze CTO, dus ik ben verantwoordelijk.
35
00:02:23,660 --> 00:02:27,120
Ja, ik kan nog heel lang verhalen houden, maar uiteindelijk ben ik zijn AI man.
36
00:02:27,120 --> 00:02:28,500
Daar komt het een beetje op neer.
37
00:02:28,500 --> 00:02:38,180
En ik vind het zelf altijd leuk om me op het hele spectrum tussen business en technologie te begeven.
38
00:02:38,180 --> 00:02:43,280
Dus als mensen me niet kunnen plaatsen op dat commerciële technische spectrum, zeggen we dat klopt.
39
00:02:43,280 --> 00:02:47,260
Want ik bevind me een beetje bij de uiteinden.
40
00:02:47,520 --> 00:03:00,760
Ja, dus dat betekent dat ik zowel kijk naar van, ja, wat zijn nu nieuwe markten, nieuwe gebieden waar we ons op kunnen begeven met de hulp van AI.
41
00:03:00,760 --> 00:03:05,260
Ik praat ook veel met C-level van onze klanten die overal ter wereld zitten.
42
00:03:05,260 --> 00:03:08,000
Over dat soort onderwerpen.
43
00:03:08,000 --> 00:03:12,000
Maar we doen ook productief aan de marketingkant.
44
00:03:12,000 --> 00:03:17,480
We doen market research om te kijken wat gaat er om in het hoofd van de business decision makers.
45
00:03:17,480 --> 00:03:18,500
Dat is rondom AI.
46
00:03:18,500 --> 00:03:22,620
Dus dat is misschien heel erg naar de business kant.
47
00:03:22,620 --> 00:03:31,480
Maar ik kijk ook naar, ja, wat zijn bijvoorbeeld, ja, als ik zeg maar onze klanten adviseer over AI, moet ik dat ook op onszelf betrekken?
48
00:03:31,480 --> 00:03:37,920
Dus wat zijn dan nieuwe go-to-market kanten die we op kunnen met de AI.
49
00:03:37,920 --> 00:03:51,740
Tot en met, ja, omdat ik ook dus nog met een voet buiten ben en sta in de academische wereld, kan ik, ben ik ook redelijk up-to-date met wat zijn een beetje technisch gezien de laatste ontwikkelingen.
50
00:03:52,100 --> 00:03:58,100
We hebben natuurlijk een hele productclub met heel veel slimme mensen die bezig zijn met de volgende wezen van het product.
51
00:03:58,100 --> 00:04:08,520
Maar af en toe kom ik van buitenaf invliegen en zeg ik van, goh, dat was, weet ik veel, half jaar voordat Chatship die uitkwam, van, goh, zouden we niet wat met Generative AI willen doen?
52
00:04:08,520 --> 00:04:09,040
Ja, precies.
53
00:04:09,040 --> 00:04:15,960
En dan vervolgens heb je honderden productontwikkelaars die vooral ik twee jaar lang alleen met Generative AI gaan lopen bouwen.
54
00:04:15,960 --> 00:04:25,200
En het laboratorium of AI lab, met name onderzoek, proef concepts of ook verder dat jullie ermee bezig houden of gaat het dan naar product teams?
55
00:04:25,200 --> 00:04:30,680
Ja, nee, dat gaat absoluut direct, het is dus geen lab, het is een hoogste virtuele aangelegenheid.
56
00:04:30,680 --> 00:04:37,220
Nee, het gaat juist direct naar, bijvoorbeeld direct naar de productontwikkelteams toe.
57
00:04:37,380 --> 00:04:51,940
Dus inderdaad, een half jaar voordat Chatship die uitkwam, ik had mijn, weet ik veel, mijn kwartaal catch-up met onze CEO en zijn direct reports, een mooie presentatie gemaakt over kunstmatige intelligentie en waar moeten we naartoe.
58
00:04:51,940 --> 00:04:56,500
En het voelde niet helemaal goed, dus een half uur voor die meeting gooide ik mijn hele presentatie weg.
59
00:04:56,500 --> 00:05:04,040
En heb ik helemaal gefocust van, nou, we moeten echt de Generative AI in.
60
00:05:04,040 --> 00:05:07,000
En natuurlijk zei iedereen, Generative wat?
61
00:05:07,240 --> 00:05:07,340
Ja.
62
00:05:07,340 --> 00:05:10,400
Want Dall-E was nog niet eens uit, zeg maar.
63
00:05:10,400 --> 00:05:13,060
Maar ik speelde wel al een aantal jaar met die technologie.
64
00:05:13,060 --> 00:05:16,600
Ik had heel vroeg toegang tot GPT-3 bijvoorbeeld.
65
00:05:16,600 --> 00:05:24,220
En, nou, toen weet ik veel, binnen een paar weken kwam Dali uit en dan kwamen er wel andere dingen uit.
66
00:05:24,220 --> 00:05:26,080
Een paar maanden later kwam ChatGPT-3 uit.
67
00:05:26,180 --> 00:05:35,380
We hadden al lang beslist toen om, ja, in 2023 al vol in te zetten op allerlei, ja, Gen AI ontwikkelingen in het product.
68
00:05:35,380 --> 00:05:38,060
Dus die worden dan direct ook in het product gebouwd.
69
00:05:38,060 --> 00:05:46,580
Ja, de meerderheid van de engineering uren in de laatste, in de releases in 2023, 2024, die waren op Gen AI gefocust.
70
00:05:46,580 --> 00:05:48,560
Wat heeft je nou het meest verbaasd?
71
00:05:48,560 --> 00:05:53,800
Want ik moet zeggen, ik was ook een van de gelukkigen die al hier een hele tijd mee bezig was.
72
00:05:53,800 --> 00:05:59,540
Wat heeft je nou het meest verbaasd in deze omwenteling met Generative AI?
73
00:05:59,680 --> 00:06:03,500
Dus we hadden eerst natuurlijk het machine learning waar de mensen mee bezig waren.
74
00:06:03,500 --> 00:06:11,300
En nu is bijna alles, Gen AI is een soort van bijna paraplu die over alles heen zit.
75
00:06:11,300 --> 00:06:13,480
Wat heeft je daarin het meest verbaasd?
76
00:06:13,480 --> 00:06:19,480
Ja, wat, nou, ja, verbaasd.
77
00:06:19,480 --> 00:06:24,760
Het is, ik ben eigenlijk in 1989 AI gaan studeren.
78
00:06:24,920 --> 00:06:29,720
Helemaal niet met het oog van, oh, dat wordt de toekomst of dat zijn belangrijke business toepassingen.
79
00:06:29,720 --> 00:06:33,860
Meer aan omdat ik puur geïnteresseerd was in het onderwerp.
80
00:06:33,860 --> 00:06:37,320
Dus ik had al het een en ander aan AI gezien.
81
00:06:37,320 --> 00:06:41,500
Ja, dan moet je ook opletten dat je niet zo'n beetje zo'n zure oude man wordt.
82
00:06:41,500 --> 00:06:42,760
Dit hebben we al gezien.
83
00:06:42,760 --> 00:06:43,820
Precies, dat kennen we al.
84
00:06:43,820 --> 00:06:51,300
Gedeeltelijk, ja, het is natuurlijk wel zo dat al die modellen, het neurale netwerk of deep learning of zelfs generative AI.
85
00:06:51,300 --> 00:06:57,320
Ik heb studenten al, ja, 2016 of zo die met generative AI bezig waren.
86
00:06:57,320 --> 00:06:59,220
Dat was er allemaal.
87
00:06:59,220 --> 00:07:07,380
En wat me dan toch nog steeds verbaasde, en dat is wel eigenlijk een belangrijke bekende les in de adoptie van technologie.
88
00:07:07,380 --> 00:07:14,620
Dat het niet zozeer gaat om, ja, zijn die ideeën er, zijn de algoritme er, maar hoe beschikbaar is die technologie.
89
00:07:14,620 --> 00:07:22,620
Ik denk dat dat zelfs OpenAI verbaasd heeft, want ze hebben toen in...
90
00:07:22,620 --> 00:07:24,820
November 2022?
91
00:07:24,820 --> 00:07:27,720
Ja, precies. November 2020 is ChatGPT.
92
00:07:27,720 --> 00:07:33,420
Maar ze hebben eigenlijk in mei 2020 al de paper uitgebracht.
93
00:07:33,420 --> 00:07:37,240
En ik had juli 2020 had ik toegang tot 3.5.
94
00:07:38,360 --> 00:07:44,700
Grotendeels eigenlijk dezelfde kwaliteit van wat de eerste versie van ChatGPT was.
95
00:07:44,700 --> 00:07:48,200
Maar het was nog steeds heel erg, toch heel erg nice.
96
00:07:48,200 --> 00:07:52,360
En du moment dat je er een gezicht op zette, dus dat je...
97
00:07:52,360 --> 00:07:57,480
Dat ze zeiden van nee, we gaan niet alleen maar die API hebben, we maken een soort mooie chatbot.
98
00:07:57,480 --> 00:08:01,100
We maken het even weer gratis, beschikbaar, iedereen kan erbij.
99
00:08:01,840 --> 00:08:05,940
Zodat je, hè, en dat je tante gedichten voor Sinterklaas kan maken.
100
00:08:05,940 --> 00:08:08,060
Of je moeder koekjes receptjes.
101
00:08:08,060 --> 00:08:15,280
Dat leidde uiteindelijk tot, zeg maar, die explosie van aandacht voor generative AI.
102
00:08:15,280 --> 00:08:19,560
Dus, ja, dat blijft een hele belangrijke les in de technologie of technologieadoptie.
103
00:08:19,560 --> 00:08:22,840
Hoe bereikbaar en hoe beschikbaar is het eigenlijk?
104
00:08:22,840 --> 00:08:25,480
En dat heeft zelfs OpenAI verbaasd.
105
00:08:25,640 --> 00:08:33,580
Ja, het is toch wel duidelijk tussen de regels door dat ze dachten van ja, we moeten even snel een demootje hebben.
106
00:08:33,580 --> 00:08:39,799
Laten we een gezicht bouwen bovenop onze GPT-modellen met zo'n chatbotje.
107
00:08:39,799 --> 00:08:42,539
Maar het is een soort pre-sales demo.
108
00:08:42,539 --> 00:08:45,680
We zijn allemaal bezig met het ontwikkelen van GPT-4.
109
00:08:45,680 --> 00:08:48,880
Wat toen in maart daarna pas uitkwam.
110
00:08:48,880 --> 00:08:54,020
Dus ik denk dat het ook OpenAI zelfs verbaasd heeft wat voor impact dat had.
111
00:08:54,040 --> 00:08:55,660
Ja, vooral die toegankelijkheid eigenlijk.
112
00:08:55,660 --> 00:09:00,240
Ik ben wel nieuwsgierig, hoe heb je dat vertaald naar de organisatie waar je actief bent?
113
00:09:00,240 --> 00:09:04,240
Met het zicht op hoe bruikbaar is het, hoe beschikbaar is het?
114
00:09:04,240 --> 00:09:06,900
Wat heb je daarvan meegenomen en hoe heb je daarin de mensen meegekregen?
115
00:09:06,900 --> 00:09:08,100
Ja, dat is een goed punt.
116
00:09:08,100 --> 00:09:11,700
Nou, het begon natuurlijk een klein beetje vanaf de top.
117
00:09:11,700 --> 00:09:15,720
Dat was toen ook nog voordat de ChatGPT uitkwam, een half jaar daarvoor.
118
00:09:15,720 --> 00:09:21,680
Dus dan warm je mensen daar alvast op van, hé, er zit iets aan te komen.
119
00:09:21,680 --> 00:09:26,000
Ja, en die zijn natuurlijk ook gezond kritisch, maar dan zien ze ook dingen gebeuren.
120
00:09:26,000 --> 00:09:30,560
En dan begint het wel vrij snel te klikken van, nou, hier moeten we wat mee.
121
00:09:32,380 --> 00:09:38,300
En om het een beetje te plaatsen, ja, wij hebben altijd in juni ons grote event, Pega World.
122
00:09:38,300 --> 00:09:45,840
En dan hebben we ook al een beetje onze release die daar vlak achteraan hobbelt.
123
00:09:46,340 --> 00:09:57,080
Dus toen hebben we eigenlijk, ja, nou, een maand nadat ChatGPT echt uitkwam, toen zijn we ook vol allerlei use cases gaan bouwen.
124
00:09:57,080 --> 00:10:00,160
Maar het was natuurlijk voor veel mensen iets nieuws.
125
00:10:00,160 --> 00:10:06,040
Dus om ook een beetje community hier te kweken, zijn we gelijk hackathons gaan doen bijvoorbeeld.
126
00:10:06,820 --> 00:10:11,720
We hebben direct ook interne communities opgericht.
127
00:10:11,720 --> 00:10:14,120
Nou, daar zaten in no time duizend mensen op die community.
128
00:10:14,120 --> 00:10:21,780
En alleen maar dingen te delen die ze, of dingen die ze gebouwd hadden, of dingen die ze interessant vonden.
129
00:10:23,060 --> 00:10:29,480
Ja, en toen was in juni 2003, zit er ons Pega World event.
130
00:10:29,480 --> 00:10:40,700
En ja, als je dan ons Tech Pavilion inloopt met de demos, dan zie je gewoon dat drie kwart van de demos natuurlijk helemaal vol zit met allerlei interessante manieren om Gen AI toe te passen.
131
00:10:40,700 --> 00:10:47,780
Zou je er eentje uit kunnen lichten waarvan je zegt van, hé, dat was eigenlijk wel een aparte manier om er zo naar te kijken?
132
00:10:47,780 --> 00:10:52,520
Ja, dat is een moeilijke vraag, omdat we zoveel verschillende dingen gestaan hebben.
133
00:10:52,880 --> 00:10:58,700
Ja, er zitten kleine originele ideeën bij, die misschien niet zo impactvol zijn.
134
00:10:58,700 --> 00:11:02,260
En dingen die best veel impact kunnen hebben.
135
00:11:02,260 --> 00:11:10,240
Dus als ik even wat voorbeelden geef, dan mix ik een beetje die categorieën.
136
00:11:10,240 --> 00:11:18,200
Maar, nou weet ik veel, aan de customer service kant, dat is nou echt zo'n domein wat toch wel heel erg zal veranderen onder invloed van de Gen AI.
137
00:11:18,200 --> 00:11:22,960
Nou, daar kun je je allerlei dingen bij voorstellen, samenvatten van een customer service call.
138
00:11:22,960 --> 00:11:25,860
Klinkt niet zo spannend, maar is een enorme business case.
139
00:11:25,860 --> 00:11:34,240
Als jij dertig minuten bespaart op el belletje, omdat je een betere wrap-up doet en een sneller wrap-up, dan is dat direct door.
140
00:11:34,240 --> 00:11:34,840
Gigantisch.
141
00:11:35,020 --> 00:11:41,880
Maar er zijn ook leukere, nou leuk hè, misschien speelsere voorbeelden die ook nuttig zijn.
142
00:11:41,880 --> 00:11:49,320
Dus zo gebruikt bijvoorbeeld dan in het customer service domein ook Gen AI om agents te trainen.
143
00:11:49,320 --> 00:11:54,180
Agents zijn dit dan call agents of AI agents?
144
00:11:54,200 --> 00:11:56,020
Ja, we hebben natuurlijk, dat zijn call agents.
145
00:11:56,020 --> 00:11:58,480
AI agents komen we ook nog wel, misschien.
146
00:11:58,480 --> 00:12:00,240
Ja, dus dit gaat om mensen hè?
147
00:12:00,240 --> 00:12:01,480
Dit gaat om mensen, mensen.
148
00:12:01,480 --> 00:12:01,700
Ja.
149
00:12:01,700 --> 00:12:05,880
Ik bedoel, ik ben ook een grote gelover van AI is augmented intelligence, right?
150
00:12:05,880 --> 00:12:08,220
Dus waar de intelligence samenwerkt met de mens.
151
00:12:08,220 --> 00:12:15,820
Maar in ieder geval, dan maak je een verhaaltje van, nou Joop belt op naar de telco customer service.
152
00:12:16,260 --> 00:12:20,340
Joop is een beetje boos en een beetje verdrietig en wil eigenlijk zijn contact opzeggen.
153
00:12:20,340 --> 00:12:24,480
En dan wordt er daadwerkelijk een klant gesimuleerd.
154
00:12:24,480 --> 00:12:29,640
In eerste instantie deden we dat alleen maar per chat, die een gesprek gaat voeren met een agent.
155
00:12:29,640 --> 00:12:33,100
En dat wordt dan gebruikt natuurlijk om agents te trainen.
156
00:12:33,100 --> 00:12:38,660
Het zij vooraf of het zij in een dull moment dat ze dan even een gesimuleerde klant krijgen.
157
00:12:38,660 --> 00:12:42,000
En dan begint Joop een beetje boos en verdrietig te zijn.
158
00:12:42,720 --> 00:12:46,780
En dan kun je ook weer met Jenna kijken van, hé, hoe gaat de agent daarmee om?
159
00:12:46,780 --> 00:12:51,780
En eerst hebben we dat alleen maar gedaan met alsof het een inkomend chatbericht was.
160
00:12:51,780 --> 00:12:55,000
Maar nu genereren we ook echt stemmen.
161
00:12:55,000 --> 00:13:00,400
Dus dan krijg je echt, natuurlijk zijn we transparant naar de agents of onze klanten.
162
00:13:00,400 --> 00:13:07,700
Maar je krijgt uiteindelijk iemand aan de lijn die boos en verdrietig gaat zeggen dat hij zijn telco contract wil opzeggen.
163
00:13:07,700 --> 00:13:13,280
Ja, en zeker in trainingssituaties maakt het uit dat emotie mee gaat werken natuurlijk.
164
00:13:13,280 --> 00:13:15,620
Ja, absoluut. Hoe ga je daarmee om, hé?
165
00:13:15,620 --> 00:13:19,660
Hoe empathisch ben je dan in hoe je omgaat met die klant?
166
00:13:19,660 --> 00:13:22,400
Want we kunnen van alles automatiseren.
167
00:13:22,400 --> 00:13:27,220
En in die intelligente automatisering kun je ook nog wel de customer mood en zo meenemen.
168
00:13:27,620 --> 00:13:37,700
Maar je moet ook uiteindelijk, ja, moeten we, als je kijkt van waar zijn mensen nou goed in, is ook het tonen van die empathie bijvoorbeeld.
169
00:13:37,700 --> 00:13:41,700
Dus ja, dat kun je op die manier goed meenemen.
170
00:13:41,700 --> 00:13:47,360
Dan aan de andere kant, die customer service desktop, die wordt natuurlijk aan alle kanten automatisch bestuurd.
171
00:13:47,360 --> 00:13:51,100
Want met consent van de klant luisteren we mee met het gesprek.
172
00:13:51,100 --> 00:13:57,260
Dus het is niet meer zo dat je tussen tien schermen loopt te winkelen als een contact center agent.
173
00:13:57,260 --> 00:14:02,980
Eigenlijk word je jouw single customer service desktop automatisch bestuurd door de AI.
174
00:14:02,980 --> 00:14:10,780
Die suggereert constant van, hé, misschien moet je, ja, de klant wil zijn contract opzeggen.
175
00:14:10,780 --> 00:14:13,180
Maar die zegt van, ja, want hij wil naar concurrent B.
176
00:14:13,180 --> 00:14:15,100
Misschien moet je even deze punten aanstippen.
177
00:14:15,100 --> 00:14:18,880
Dat wordt even uit een retrieval.
178
00:14:18,880 --> 00:14:21,300
Een kennisbank, ja.
179
00:14:21,300 --> 00:14:25,120
Nou, uiteindelijk weet je de klant te overtuigen.
180
00:14:25,120 --> 00:14:27,840
Maar die wil wel een upgrade van zijn contract.
181
00:14:27,840 --> 00:14:30,320
En by the way, hij gaat ook verhuizen.
182
00:14:30,320 --> 00:14:32,600
Oh, vul maar even automatisch.
183
00:14:32,600 --> 00:14:33,520
Geef ze een nieuwe adres.
184
00:14:33,520 --> 00:14:34,540
Nou, vul dat voor me in.
185
00:14:34,540 --> 00:14:38,460
Dus eigenlijk ben je als agent veel meer gericht op de klant.
186
00:14:38,460 --> 00:14:42,020
En word je desktop zoveel mogelijk automatisch bestuurd.
187
00:14:42,020 --> 00:14:44,700
Waarbij je natuurlijk op alle kernmomenten even kan bevestigen.
188
00:14:44,700 --> 00:14:45,300
Ja, dit klopt.
189
00:14:45,300 --> 00:14:46,140
Ja, dit wil ik doen.
190
00:14:46,140 --> 00:14:48,180
Nee, hier is een kleine wijziging.
191
00:14:48,180 --> 00:14:50,180
Nee, we gaan toch even iets anders doen.
192
00:14:50,180 --> 00:14:53,420
Dus heel erg op de automatische piloot wat dat betreft.
193
00:14:53,420 --> 00:14:57,100
Ja, waarbij de mens eigenlijk wordt versterkt door de technologie.
194
00:14:57,100 --> 00:14:59,960
Dat je meer aandacht en tijd hebt voor je klant.
195
00:14:59,960 --> 00:15:02,120
Ja, want als mensen denken automatisch piloot.
196
00:15:02,120 --> 00:15:04,780
Dan denken ze van, oh, mensen worden geautomatiseerd.
197
00:15:04,780 --> 00:15:05,740
Maar dat is het juist niet.
198
00:15:06,240 --> 00:15:09,260
Je wil het systeem op de automatische piloot zetten.
199
00:15:09,260 --> 00:15:15,500
Zodat de mens echt het menselijke aspect kan toevoegen.
200
00:15:15,500 --> 00:15:21,100
Hoe zorg je ervoor dat de machine richting de mens komt?
201
00:15:21,100 --> 00:15:24,380
En dat wij als mensen ons niet moeten gaan aanpassen aan die machine?
202
00:15:26,440 --> 00:15:38,280
Nou, ik denk dat de machine naar de mens is natuurlijk dat het belangrijk is om inderdaad niet alleen naar zogenaamde feitelijk informatie te kijken,
203
00:15:38,280 --> 00:15:46,120
maar te proberen die empathie of emotie of wat is de intent van de klant.
204
00:15:46,980 --> 00:15:50,580
Om eigenlijk zo goed mogelijk in te kunnen schatten van wat wil de klant nou eigenlijk.
205
00:15:50,580 --> 00:15:53,900
Naast wat de klant zegt, ook wat wil de klant.
206
00:15:53,900 --> 00:16:04,320
Misschien kunnen we ook wel dan AI gebruiken om te voorspellen van, nou, wat is het beste klantbehouden aanbod wat we hier kunnen doen.
207
00:16:04,320 --> 00:16:05,200
Ja, bijvoorbeeld.
208
00:16:06,660 --> 00:16:10,980
Gebaseerd op jouw klantwaarde en de kans dat je opstapt en wat dan ook.
209
00:16:10,980 --> 00:16:16,480
Maar dus dat je echt probeert ook de klant te begrijpen.
210
00:16:16,480 --> 00:16:18,180
Dat kan de AI beter doen.
211
00:16:18,180 --> 00:16:24,940
Hoe de mens in controle blijft, ja, dat is natuurlijk op twee niveaus.
212
00:16:24,940 --> 00:16:27,900
Je hebt, zeg maar, de call center agent in dit geval.
213
00:16:27,900 --> 00:16:31,160
Die moet alle ruimte hebben om te zeggen van, nou, nee, dit wil ik niet.
214
00:16:31,160 --> 00:16:31,960
Nee, dit klopt niet.
215
00:16:31,960 --> 00:16:33,140
Nee, we gaan wat anders doen.
216
00:16:33,140 --> 00:16:36,740
Of ja, dit was een nuttig antwoord.
217
00:16:36,740 --> 00:16:39,340
Of nee, hier had je eigenlijk nog even iets anders kunnen zeggen.
218
00:16:39,340 --> 00:16:46,080
Dus je wil zorgen dat die feedback loop, dat er voldoende mate van autonomie is binnen bepaalde grenzen.
219
00:16:46,080 --> 00:16:58,240
En dat je ook heel erg eigenlijk nog veel meer gaat zitten op de feedback die in dit geval de agent of een medewerker of misschien uiteindelijk een klant direct teruggeeft aan de AI.
220
00:16:58,240 --> 00:17:03,140
Dus ruimte laten voor, ja, vrijheid en variatie.
221
00:17:03,140 --> 00:17:07,400
En ook voldoende ruimte om feedback te hebben.
222
00:17:07,400 --> 00:17:09,480
Ja, er is ook nog autonomie bij de mens.
223
00:17:09,480 --> 00:17:10,099
Absoluut.
224
00:17:10,440 --> 00:17:14,359
Ja, uiteindelijk, ja, we hebben een beetje dat idee van de autonomous enterprise.
225
00:17:14,359 --> 00:17:17,260
De toekomstvisie voor een enterprise.
226
00:17:17,260 --> 00:17:24,619
Die, zeg maar, het idee is van, ja, als ik een autonomous car kan hebben, self-driving car, waarom hebben we geen self-driving businesses?
227
00:17:24,619 --> 00:17:32,780
Maar het kernidee van een zelfrijdende auto is natuurlijk, het is niet zo dat ik in een Waymo stap en die brengt me naar een random bestemming.
228
00:17:32,780 --> 00:17:34,900
Je hebt een doel.
229
00:17:34,900 --> 00:17:35,720
Ja, daarom.
230
00:17:35,720 --> 00:17:40,260
Ja, je hebt nu wel kans bij die auto's dat ze het wel doen, maar dat is niet helemaal het idee.
231
00:17:40,260 --> 00:17:41,220
Dat is niet waarom.
232
00:17:41,220 --> 00:17:44,220
Ik was wel nieuwsgierig, dat betekent dat ook voor de menskant.
233
00:17:44,220 --> 00:17:46,760
Je wil de autonomie, maar je wil wel support.
234
00:17:46,760 --> 00:17:48,820
En dat zal ook ongetwijfeld het weerstand zijn.
235
00:17:48,820 --> 00:17:51,260
Hoe hebben jullie het aangepakt?
236
00:17:51,260 --> 00:17:53,580
Of wat heb je tips om mensen daarin mee te nemen?
237
00:17:53,580 --> 00:17:54,700
Wat heeft bij jullie goed gewerkt?
238
00:17:54,700 --> 00:18:03,440
Nou, ja, dus je kunt het een beetje zien als van, hoe krijgen we intern bij PEGA mensen mee?
239
00:18:03,440 --> 00:18:15,400
Nee, maar voor ons, omdat we die platformen hebben waar we AI en automation gebruiken, is het nog veel belangrijker van onze klanten.
240
00:18:15,400 --> 00:18:16,800
Hoe krijgen we onze klanten mee?
241
00:18:16,800 --> 00:18:20,680
Maar uiteindelijk ook, hoe krijgen we de eindklanten van onze klanten ook mee?
242
00:18:20,680 --> 00:18:23,840
Dus daar focussen we dan heel erg op.
243
00:18:23,840 --> 00:18:30,980
Ja, dus dan is het, ja, dan zijn er een aantal aspecten natuurlijk heel belangrijk.
244
00:18:30,980 --> 00:18:38,880
Dus het is belangrijk dat bijvoorbeeld de AI zich af en toe uit kan leggen.
245
00:18:39,080 --> 00:18:44,900
Dus als ik zeg van, nee, je krijgt die lening niet of nee, we keuren die verzekeringsclaim af.
246
00:18:44,900 --> 00:18:48,820
Dat je ook aan die AI kan vragen van, hoezo?
247
00:18:48,820 --> 00:18:51,860
Ja, en dat zijn zogenaamde negatieve voorbeelden, zeg maar.
248
00:18:51,860 --> 00:19:01,160
Maar andersom ook, als je in een sales automation omgeving zegt van, ja, dit is een warme lead.
249
00:19:01,160 --> 00:19:04,680
Dan moet je ook zeggen, ja, maar ik geloof daar niks van.
250
00:19:04,680 --> 00:19:05,080
Hoezo?
251
00:19:05,080 --> 00:19:12,100
Ja, dus er is een element van transparantie waarbij de AI zichzelf aardig moet kunnen uitleggen.
252
00:19:12,100 --> 00:19:16,460
En daar kun je zowel een beetje linker hersenhelft AI voor gebruiken.
253
00:19:16,460 --> 00:19:20,160
Explainable AI, wat zijn de belangrijkste factoren in een voorspelling.
254
00:19:20,160 --> 00:19:22,780
Maar je kunt ook generative AI gebruiken.
255
00:19:22,780 --> 00:19:27,680
Want we gebruiken generative AI om eigenlijk die output ook weer te interpreteren.
256
00:19:27,680 --> 00:19:30,540
Kan je dat iets concreter maken?
257
00:19:30,540 --> 00:19:33,040
Want ik zit heel erg aan de explainable AI kant.
258
00:19:34,180 --> 00:19:41,200
Want vind je, A, is er genoeg aandacht voor rond generatieve AI met uitlegbaarheid?
259
00:19:41,200 --> 00:19:42,840
En hoe zie je dat dan concreet?
260
00:19:42,840 --> 00:19:49,540
Ja, nou, er is nooit voldoende aandacht voor explainable AI of trustworthy AI.
261
00:19:49,540 --> 00:19:53,820
Ik start een beetje met de intelligence without action is useless.
262
00:19:53,820 --> 00:19:58,000
Dus actionable AI is enorm belangrijk.
263
00:19:58,540 --> 00:20:01,400
Maar het andere aspect is AI is accepted intelligence.
264
00:20:01,400 --> 00:20:03,960
Ja, dus of trustworthy AI.
265
00:20:03,960 --> 00:20:05,720
En daar valt explainable AI onder.
266
00:20:05,720 --> 00:20:11,320
Dus het is enorm belangrijk dat we AI op ethische manieren toepassen.
267
00:20:11,320 --> 00:20:15,700
Niet alleen voor ons karma, maar uiteindelijk zullen klanten ook met hun voeten stemmen.
268
00:20:15,700 --> 00:20:19,020
En gewoon naar een switcher van bank ofzo.
269
00:20:19,020 --> 00:20:26,280
Als we niet blij zijn als bankklanten hoe onze banken met onze gegevens omgaan.
270
00:20:26,700 --> 00:20:29,160
Maar dan om terug te gaan naar je vraag.
271
00:20:29,160 --> 00:20:38,700
Een concreet voorbeeld is bijvoorbeeld, we pakken weer dat scenario van iemand belt zijn verzekering op.
272
00:20:38,700 --> 00:20:43,240
En zegt van nou, ik heb een ongeluk gehad met de auto.
273
00:20:45,440 --> 00:20:50,160
En het systeem zegt van nou, oeh, dit zou wel eens een complexe claim kunnen worden.
274
00:20:50,160 --> 00:20:52,300
Die kunnen we niet zomaar automatisch afhandelen.
275
00:20:52,300 --> 00:20:58,000
Sterker nog, die moeten we gelijk aan een ervaren medewerker geven.
276
00:20:58,000 --> 00:21:02,020
Nou, dan kun je ook vragen van ja, dat kan natuurlijk een automatische routing zijn.
277
00:21:02,020 --> 00:21:03,100
Dat komt in die bak terecht.
278
00:21:03,100 --> 00:21:06,140
Dan kan die medewerker ook kijken van ja, maar hoezo dan?
279
00:21:06,140 --> 00:21:08,260
Waarom komt die in mijn bak terecht?
280
00:21:08,260 --> 00:21:12,040
Dus dan kan er aan de ene kant uitkomen.
281
00:21:12,040 --> 00:21:14,280
Daar kan natuurlijk een soort voorspellend model achter zitten.
282
00:21:14,280 --> 00:21:16,620
Dat is een beetje linker hersenhelft AI.
283
00:21:16,620 --> 00:21:19,780
Een voorspellend model wat gewoon een aantal factoren heeft.
284
00:21:19,780 --> 00:21:28,560
Waardoor er een grote kans van het missen van de deadline wordt berekend.
285
00:21:28,560 --> 00:21:30,840
En dat kan in dit geval misschien zijn.
286
00:21:30,840 --> 00:21:34,840
Het zegt van nou, het komt omdat er meer dan twee auto's involved zijn.
287
00:21:34,840 --> 00:21:40,820
De chauffeur is onder de 21.
288
00:21:41,560 --> 00:21:45,100
Er is geen politie of rapport of hoe heet zo'n ding.
289
00:21:45,100 --> 00:21:47,340
Opgemaakt.
290
00:21:47,340 --> 00:21:47,580
Opgemaakt.
291
00:21:47,580 --> 00:21:50,580
Etcetera.
292
00:21:50,580 --> 00:21:54,640
Nou, en dat kan met linker hersenhelft AI.
293
00:21:54,640 --> 00:21:59,180
Kun je, ik spreek nu bij AI technieken, om die drivers eigenlijk te herkennen.
294
00:21:59,180 --> 00:22:01,920
Zelfs als je het model zelf niet kent.
295
00:22:01,920 --> 00:22:03,100
Als het een blackbox model is.
296
00:22:04,800 --> 00:22:08,180
Maar andersom is het natuurlijk wel zo van, ja, dat zijn grafiekjes.
297
00:22:08,180 --> 00:22:10,240
En sommige mensen gaan lekker op grafiekjes.
298
00:22:10,240 --> 00:22:14,280
Maar andere mensen gaan lekkerder op een uitleg.
299
00:22:14,280 --> 00:22:16,680
Dus waar nou is een narrative daaromheen.
300
00:22:16,680 --> 00:22:20,320
Van eigenlijk een GenAI die naar dat grafiekje kijkt.
301
00:22:20,780 --> 00:22:21,780
En dat interpreteert.
302
00:22:21,780 --> 00:22:22,800
Oh, zo ja.
303
00:22:22,800 --> 00:22:24,540
En die GenAI schrijft dan een verhaaltje.
304
00:22:24,540 --> 00:22:25,080
Ja.
305
00:22:25,080 --> 00:22:26,680
Interpreteert eigenlijk die grafiek.
306
00:22:26,680 --> 00:22:29,800
En dan kun je ook verder gaan dan alleen harde getallen.
307
00:22:30,000 --> 00:22:37,660
Want daar staat bijvoorbeeld, nou weet ik veel, aantal auto's betrokken, meer dan twee, etcetera.
308
00:22:37,660 --> 00:22:40,720
Maar die Jenny High heeft wereldkennis.
309
00:22:40,720 --> 00:22:46,480
Ja, dus die kan zeggen, die kan ook uitleggen waarom dat dan mogelijk een...
310
00:22:46,480 --> 00:22:47,040
Meer risico.
311
00:22:47,040 --> 00:22:48,000
Ja.
312
00:22:48,000 --> 00:22:49,700
Waarom een minderjarige driver.
313
00:22:49,700 --> 00:22:54,480
Ja, dat is een, wat, dat zal elke claims agent weten, maar dit is een beetje een simpel voorbeeld.
314
00:22:55,100 --> 00:23:00,580
Waarom dat eigenlijk, die kan het eigenlijk interpreteren.
315
00:23:00,580 --> 00:23:00,780
Ja.
316
00:23:00,780 --> 00:23:04,100
Kennis van de wereld aan toevoegen om daar een verhaaltje omheen te schrijven.
317
00:23:04,100 --> 00:23:07,560
En dus eigenlijk alsof je het van een collega overgedragen krijgt.
318
00:23:07,560 --> 00:23:08,380
Het wordt verwoord.
319
00:23:08,380 --> 00:23:10,660
Waardoor je inderdaad dat eigenlijk tot je neemt.
320
00:23:10,660 --> 00:23:12,800
Omdat het de vorm is die beter past bij die persoon.
321
00:23:12,800 --> 00:23:12,960
Ja.
322
00:23:12,960 --> 00:23:14,160
Ja, ja.
323
00:23:14,160 --> 00:23:16,860
Haaier gebruikt hier eigenlijk de harde kant.
324
00:23:16,860 --> 00:23:19,040
Wat jij de linker hersenhelft noemt.
325
00:23:19,040 --> 00:23:19,200
Ja.
326
00:23:19,200 --> 00:23:25,060
En die zet je om in taal die wij wat makkelijker zeg maar tot ons nemen.
327
00:23:25,060 --> 00:23:28,080
Waar ik nog wel benieuwd naar ben.
328
00:23:28,080 --> 00:23:31,660
Generatieve AI wordt natuurlijk nu ook voor van alles en nog wat gebruikt.
329
00:23:31,660 --> 00:23:36,140
En daarvoor is het heel erg moeilijk om uitleg te krijgen uit het model.
330
00:23:36,140 --> 00:23:39,780
Waaronder besluiten worden genomen in het model zoals ze genomen worden.
331
00:23:39,780 --> 00:23:40,020
Ja.
332
00:23:40,020 --> 00:23:41,580
Hoe kijk je daar naar?
333
00:23:41,580 --> 00:23:47,920
Ja, dat is een van de meest spannende domeinen eigenlijk van de generative AI.
334
00:23:47,920 --> 00:23:52,220
Je hebt natuurlijk dingen als chain of thought reasoning.
335
00:23:52,220 --> 00:23:58,920
Dus dan vraag je hem eigenlijk in zijn hoofd een verhaaltje af te spelen van hoe kom ik nou eigenlijk tot mijn conclusie.
336
00:23:58,920 --> 00:24:02,480
Ja.
337
00:24:02,480 --> 00:24:03,560
Hoe dat werkt.
338
00:24:03,560 --> 00:24:07,920
Want taalmodellen zijn eigenlijk vrij blinde taal invullers.
339
00:24:09,080 --> 00:24:10,700
Dus als je hem vraagt om een...
340
00:24:10,700 --> 00:24:13,080
Deels kun je zeggen, is dat nou wel echt...
341
00:24:13,080 --> 00:24:18,020
Is dat meer een soort verwording of is dat echt hoe dat model tot die uitkomst komt?
342
00:24:18,020 --> 00:24:20,160
De waarheid ligt een beetje in het midden.
343
00:24:20,160 --> 00:24:24,260
Want deels is het natuurlijk een soort verhaaltje wat hij gaat maken.
344
00:24:24,260 --> 00:24:29,160
Terwijl intern is het gewoon een hele grote stapel met miljarden parameters.
345
00:24:29,160 --> 00:24:30,660
Rekensommetjes.
346
00:24:30,660 --> 00:24:31,400
Rekensommetjes.
347
00:24:31,460 --> 00:24:33,020
Dus de vraag of dat het echt zo gaat.
348
00:24:33,020 --> 00:24:35,520
Dus aan de andere kant klopt het wel degelijk enigszins.
349
00:24:35,520 --> 00:24:38,440
Want die taalmodellen zijn een soort blinde taal invullers.
350
00:24:38,440 --> 00:24:40,920
Dus als die een soort verhaal beginnen op te hangen.
351
00:24:40,920 --> 00:24:45,980
Ja, dan nemen ze dat eigenlijk mee in de context voor de rest van de redenatie.
352
00:24:45,980 --> 00:24:50,820
Dat legt ook uit van stel dat je een taalmodel hebt wat een compleet fout antwoord geeft.
353
00:24:50,820 --> 00:24:53,440
Waarom dat taalmodel dat zo goed kan onderbouwen.
354
00:24:53,440 --> 00:24:56,000
Want dan begint een redenatie op te hangen.
355
00:24:56,000 --> 00:25:01,280
En dat zal een hele consistente redenering zijn richting het foute antwoord.
356
00:25:01,280 --> 00:25:03,560
Dus je hebt dingen als chain of thought.
357
00:25:03,560 --> 00:25:11,580
Maar één ding waar we zelf heel erg veel mee bezig zijn op dit moment meer voor de toekomst.
358
00:25:11,580 --> 00:25:14,580
Zijn ook agent-based technologies.
359
00:25:14,580 --> 00:25:18,380
Zou je dat aan de luisteraar kunnen uitleggen?
360
00:25:18,380 --> 00:25:19,960
Wat zijn agent-based technologies?
361
00:25:19,960 --> 00:25:22,100
Ja, dat is natuurlijk een kleine cliffhanger hier.
362
00:25:22,100 --> 00:25:29,200
Ja, agent-based technologies.
363
00:25:29,860 --> 00:25:35,020
Eigenlijk is het idee al heel erg oud.
364
00:25:35,020 --> 00:25:37,460
Agent-based systemen.
365
00:25:37,460 --> 00:25:40,740
Een agent is eigenlijk een klein programmetje.
366
00:25:40,740 --> 00:25:41,860
Misschien ook een...
367
00:25:41,860 --> 00:25:46,680
Die die zelf, min of meer zelfbeslissingen kan nemen.
368
00:25:46,680 --> 00:25:48,020
Zelf acties kan ondernemen.
369
00:25:48,020 --> 00:25:52,520
En op basis daarvan weer kan reageren op wat er gebeurd is.
370
00:25:52,640 --> 00:25:56,500
Er zit een soort sense-the-side-act loop in.
371
00:25:56,500 --> 00:26:02,380
En je kunt verschillende agents hebben voor verschillende doeleinden.
372
00:26:02,380 --> 00:26:05,940
En die kunnen dan ook nog in een hele grote bak gooien als kickers in een emmer.
373
00:26:05,940 --> 00:26:08,280
En dan gaan ze hopelijk met elkaar samenwerken.
374
00:26:08,280 --> 00:26:09,360
Nou, ik zeg hopelijk.
375
00:26:09,640 --> 00:26:16,580
Want eigenlijk tot de komst van generative AI waren agents iets meer een soort research topic.
376
00:26:16,580 --> 00:26:19,800
Want het was alleen maar mogelijk in...
377
00:26:19,800 --> 00:26:21,640
Of in hele...
378
00:26:21,640 --> 00:26:25,240
Ik probeer het Engels een beetje te vermijden.
379
00:26:25,240 --> 00:26:25,640
Heel graag.
380
00:26:25,800 --> 00:26:27,760
Gelimiteerde domeinen.
381
00:26:27,760 --> 00:26:28,780
Heel afgebakend.
382
00:26:28,780 --> 00:26:31,900
Heel afgebakende vraagstukken.
383
00:26:31,900 --> 00:26:32,180
Precies.
384
00:26:32,180 --> 00:26:33,220
Planningsvraagstukken.
385
00:26:33,220 --> 00:26:34,940
Planning, inderdaad.
386
00:26:34,940 --> 00:26:35,820
Electriciteit.
387
00:26:35,820 --> 00:26:36,760
Voorspellen.
388
00:26:36,760 --> 00:26:38,700
Of daarop reageren.
389
00:26:38,700 --> 00:26:40,460
Traffic simulatie.
390
00:26:40,460 --> 00:26:41,860
Dat soort dingen.
391
00:26:41,860 --> 00:26:45,260
Of het was voor brede domeinen.
392
00:26:45,260 --> 00:26:46,800
Maar dan werkte het gewoon niet.
393
00:26:46,800 --> 00:26:49,300
Ik weet of je Clippy nog herinnert.
394
00:26:49,300 --> 00:26:50,120
Zeker.
395
00:26:50,120 --> 00:26:50,620
Zeker.
396
00:26:50,620 --> 00:26:52,420
Voor de jonge luisteraars.
397
00:26:52,420 --> 00:26:56,200
Ja, een hele vervelende paperclip die een word opgepopt.
398
00:26:56,200 --> 00:26:58,240
En altijd met iets kwam waar je niks aan had.
399
00:26:58,240 --> 00:26:58,680
Daarom.
400
00:26:58,680 --> 00:27:00,340
Die hield je gewoon echt van het werk af.
401
00:27:00,340 --> 00:27:03,160
Met dan ook nog met een heel blij cartoon gezichtje.
402
00:27:03,160 --> 00:27:05,240
Dat is een bijzonder irritant wezen.
403
00:27:05,240 --> 00:27:10,820
Maar eigenlijk met de komst van generative AI zijn er wel wat dingen veranderd.
404
00:27:10,820 --> 00:27:16,220
Want het probleem was dat je moest de wereld heel goed in kaart brengen.
405
00:27:16,220 --> 00:27:18,640
En heel precies zeggen wat die agents konden doen.
406
00:27:18,640 --> 00:27:21,000
Daardoor was het altijd teveel genoeg.
407
00:27:21,260 --> 00:27:23,380
En als het meer open was, dan gingen dus fouten.
408
00:27:23,380 --> 00:27:23,960
En dat is met Clippy.
409
00:27:23,960 --> 00:27:25,680
Maar met generative AI.
410
00:27:25,680 --> 00:27:32,480
Ja, dat zijn natuurlijk modellen die enigszins een begrip.
411
00:27:32,480 --> 00:27:33,920
Die enigszins generiek zijn.
412
00:27:33,920 --> 00:27:36,160
Enigszins een begrip van de wereld hebben.
413
00:27:36,160 --> 00:27:41,740
Dus in zo'n gen AI agent based systeem.
414
00:27:41,740 --> 00:27:46,540
Ja, dan kunnen we de generative AI eigenlijk meer van die autonomie geven.
415
00:27:46,540 --> 00:27:48,100
Die autonomie waar ik het eerst over had.
416
00:27:48,340 --> 00:27:50,620
Dus stel ik ben een gebruiker.
417
00:27:50,620 --> 00:27:52,300
Ik heb een bepaald probleem.
418
00:27:52,300 --> 00:27:53,320
Weet ik veel.
419
00:27:53,320 --> 00:27:54,660
Die claim komt weer binnen.
420
00:27:54,660 --> 00:27:55,980
Ja, wat gaan we daarmee doen?
421
00:27:55,980 --> 00:28:01,600
En in plaats van dat ik een prompt moet schrijven en die stuur ik naar een gen AI service.
422
00:28:01,600 --> 00:28:02,700
En die geeft mijn antwoord terug.
423
00:28:02,700 --> 00:28:05,640
Ja, dat is heel passief gebruik van zo'n gen AI service.
424
00:28:05,640 --> 00:28:08,700
Ik kan ook zeggen nee, ik bouw een agent.
425
00:28:09,420 --> 00:28:16,360
En de eerste, ik heb een agent en dat is mijn verzekeringsclaim complexiteitsagent.
426
00:28:16,360 --> 00:28:22,520
Ja, die kan informatie ophalen over wie doet hier eigenlijk aangifte.
427
00:28:22,520 --> 00:28:25,160
Is dit de honderdste keer dat iemand aangifte doet?
428
00:28:25,980 --> 00:28:30,960
Ja, of is het eigenlijk iemand die echt in een probleem zit en een goede klant voor in?
429
00:28:30,960 --> 00:28:34,100
En dit is een simpele claim, dus dat moeten we direct goedkeuren.
430
00:28:34,100 --> 00:28:37,360
Maar in ieder geval die agent heeft tools tot zijn beschikking.
431
00:28:37,360 --> 00:28:40,440
Tot zijn haar beschikking.
432
00:28:40,440 --> 00:28:41,160
Ja.
433
00:28:42,820 --> 00:28:45,940
Tools waarmee die informatie kan ophalen.
434
00:28:45,940 --> 00:28:48,900
Over de intern en externe maakt niet uit.
435
00:28:48,900 --> 00:28:51,320
Allerlei verschillende soorten tools die informatie ophalen.
436
00:28:51,320 --> 00:28:53,660
En ook tools om acties te nemen.
437
00:28:53,660 --> 00:29:02,780
Dus ja, misschien dat op een soort simpel niveau die agent dan ook zegt van dit is toch wel ingewikkeld.
438
00:29:02,780 --> 00:29:08,640
En dit is niet de vorige claim waar we het over hadden.
439
00:29:08,640 --> 00:29:11,800
Maar dit is inderdaad de vijfde badhanddoek die langs komt.
440
00:29:12,200 --> 00:29:15,340
Ik stuur het eventjes naar mijn fraude-agent.
441
00:29:15,340 --> 00:29:16,020
Ja, precies.
442
00:29:16,020 --> 00:29:18,380
En die kan dan ook weer.
443
00:29:18,380 --> 00:29:23,340
Bijvoorbeeld die fraude-agent die heeft dan misschien weer tools om te kijken van nou weet ik veel.
444
00:29:23,340 --> 00:29:27,700
Allerlei bronnen, specifieke bronnen voor dat probleem.
445
00:29:27,700 --> 00:29:32,120
Ja, of er een fraudegevalletje is.
446
00:29:32,120 --> 00:29:41,340
En het zijn dus tools die zowel we raken, Gen.ai dan op verschillende manieren eigenlijk om in te schatten van welk probleem heeft de gebruiker.
447
00:29:41,580 --> 00:29:46,080
Ook om te snappen van welke tools heb ik eigenlijk allemaal tot mijn beschikking.
448
00:29:46,080 --> 00:29:50,620
Ja, daar kan een soort natuurlijke taalhandleiding je bij van wat doen die tools nou eigenlijk.
449
00:29:51,720 --> 00:29:58,900
En die Gen.ai kan dan die vage vraag van de gebruiker doorvertalen naar een soort plannetje.
450
00:29:58,900 --> 00:30:02,420
Gen.ai gebruiken om een plant te generaten.
451
00:30:02,860 --> 00:30:05,760
Van hoe moet ik die tools nou gebruiken en welke volgorde.
452
00:30:05,760 --> 00:30:08,020
En als ik ze dan ga gebruiken en ik krijg wat feedback.
453
00:30:08,020 --> 00:30:11,040
Oh, betekent dat succes of failure zeg maar.
454
00:30:11,040 --> 00:30:16,840
En dat in tegenstelling tot zeg maar traditionele software waarbij je eigenlijk het hele proces uitschrijft.
455
00:30:16,840 --> 00:30:19,200
Dan is het altijd in dezelfde volgorde.
456
00:30:19,200 --> 00:30:21,280
Of we programmeren de afslagen.
457
00:30:21,680 --> 00:30:25,340
Zeg je nu eigenlijk van ja, maar we hebben agents die dingen kunnen uitvoeren.
458
00:30:25,340 --> 00:30:31,260
En die bepalen met elkaar hoe ze uiteindelijk dat proces aanvliegen.
459
00:30:31,260 --> 00:30:31,660
Toch?
460
00:30:31,660 --> 00:30:31,780
Ja.
461
00:30:31,780 --> 00:30:33,220
Vat ik het zo goed samen?
462
00:30:33,780 --> 00:30:37,060
Waarbij ze volgens mij ook hun eigen expertise en capabilities hebben.
463
00:30:37,060 --> 00:30:40,220
En dat weer van elkaar weten om op te kunnen acteren.
464
00:30:40,220 --> 00:30:40,860
Precies.
465
00:30:40,860 --> 00:30:47,020
En want we zaten al lang op dat hele domein van AI en automation.
466
00:30:47,020 --> 00:30:52,180
Dus er zijn natuurlijk processen waarbij je donders goed weet wat de stappen zijn.
467
00:30:52,180 --> 00:30:59,040
Of het kan zelfs wetgeving zijn die je verplicht om bepaalde stappen te volgen.
468
00:30:59,040 --> 00:31:02,160
Nou, daar heb je echt geen agents voor nodig.
469
00:31:02,740 --> 00:31:07,600
Maar er zijn ook heel veel problemen die iets meer semi gestructureerd zijn.
470
00:31:07,600 --> 00:31:10,940
Waarbij eigenlijk het ideale proces niet helemaal vast ligt.
471
00:31:10,940 --> 00:31:13,020
Of er is te veel variatie.
472
00:31:13,020 --> 00:31:21,020
En dat zijn nou precies die domeinen waarin je dan zo'n agent based aanpak goed zou kunnen werken.
473
00:31:21,020 --> 00:31:25,520
Waar je bij als je mensen zou naar de mens zou halen.
474
00:31:25,520 --> 00:31:27,420
Die zeggen van oh ja, ik moet eigenlijk die even bellen.
475
00:31:27,420 --> 00:31:29,680
Daar mail ik even naartoe.
476
00:31:29,840 --> 00:31:34,920
En ik voeg al dat soort dingen samen aan informatie die je krijgt om uiteindelijk een besluit te nemen.
477
00:31:34,980 --> 00:31:37,000
Ja, en daar zit dus nog ook iets tussen.
478
00:31:37,000 --> 00:31:39,540
Want je hebt eigenlijk een beetje de straight through workflow.
479
00:31:39,540 --> 00:31:41,840
Business process management, et cetera.
480
00:31:41,840 --> 00:31:42,960
Zoals het allemaal zo mooi heet.
481
00:31:42,960 --> 00:31:45,460
Dat is een beetje een blokje peiltje processen.
482
00:31:45,460 --> 00:31:47,220
En automatisch uitvoeren.
483
00:31:47,220 --> 00:31:51,620
Dan ga je eigenlijk naar processen toe die meer semi gestructureerd zijn.
484
00:31:51,620 --> 00:31:55,300
Waar misschien het een combinatie is van die straight through.
485
00:31:55,440 --> 00:31:56,360
Maar ook mensenwerk.
486
00:31:56,360 --> 00:32:01,580
Nou, dat kan nog steeds met domeinen als, zoals het zo mooi heet, zaken.
487
00:32:01,580 --> 00:32:04,000
Zakenricht werken of case management.
488
00:32:04,000 --> 00:32:04,460
Ja.
489
00:32:04,460 --> 00:32:09,520
Nou, dat is een tak van sport waar we ook al tijden in zaten.
490
00:32:09,520 --> 00:32:19,520
Maar nu komen we op een plek waar we kunnen zeggen van nou, dan hebben we eigenlijk stiekem de ideale omgeving voor die agents om in te leven.
491
00:32:19,520 --> 00:32:30,400
Dus als er dan een probleem is wat niet straight through is en eigenlijk ook niet echt zo'n zaakgerichte aanpakt, dan kunnen we meer een agent based approach pakken.
492
00:32:30,400 --> 00:32:44,620
Maar die leven wel in een soort veilige omgeving waar eigenlijk al die, ja, als je bij, al die tools die er al waren eigenlijk voor die andere twee aanpakken, die zijn er allemaal.
493
00:32:45,240 --> 00:32:50,680
En wij kunnen die beschikbaar maken voor die agents ook, binnen bepaalde richtlijnen.
494
00:32:50,680 --> 00:32:55,540
Ja, al de manier om aan elkaar te koppelen en te gaan gebruiken en te automatiseren.
495
00:32:55,540 --> 00:33:01,800
Ja, en dan kunnen we ook beter die, want de governance is wel belangrijk.
496
00:33:01,800 --> 00:33:06,560
Dus je wil goed kunnen zeggen, nou, welke tools zijn beschikbaar, welke niet.
497
00:33:06,560 --> 00:33:10,180
Wanneer escaleren we weer terug naar de mens?
498
00:33:12,300 --> 00:33:14,260
Ja, dat soort zaken.
499
00:33:14,260 --> 00:33:17,160
En ja, tot mijn grote chagrijn als AI nerd.
500
00:33:17,160 --> 00:33:26,320
Ik denk dat dus het succes van agent based systemen niet, de grootste factor wordt niet de slimheid van de AI en de intelligentie.
501
00:33:26,320 --> 00:33:27,240
Jammer helaas.
502
00:33:27,240 --> 00:33:32,880
Maar de omgeving waarbinnen je ze moet laten werken.
503
00:33:32,880 --> 00:33:34,740
Saaie integraties.
504
00:33:34,740 --> 00:33:35,180
Ja.
505
00:33:35,180 --> 00:33:36,660
Is de data beschikbaar?
506
00:33:36,660 --> 00:33:37,880
Maar ja, dat...
507
00:33:37,880 --> 00:33:38,700
Datakwaliteit.
508
00:33:39,100 --> 00:33:43,000
Ja, al die hyper saaie onderwerpen die wel heel belangrijk zijn.
509
00:33:43,000 --> 00:33:45,740
En dat is die accessibility ook.
510
00:33:45,740 --> 00:33:53,800
En daar hebben we natuurlijk, dan boffen we een beetje, dat we natuurlijk al jarenlang van die leuke workflow systemen aan elkaar hebben lopen klussen.
511
00:33:53,800 --> 00:33:58,000
En dat er klanten zijn die gewoon, weet ik veel, honderd verschillende applicaties draaien.
512
00:33:58,000 --> 00:34:01,540
Met godbetert hoeveel interfaces die er allemaal al liggen.
513
00:34:01,780 --> 00:34:02,700
Ja, nee zeker.
514
00:34:02,700 --> 00:34:05,980
Hey, we hebben een onderdeel.
515
00:34:05,980 --> 00:34:16,520
En dan zijn we heel erg benieuwd naar van, als jij zou mogen dromen, van welk AI systeem zou jij zelf willen maken of gemaakt willen zien worden.
516
00:34:16,520 --> 00:34:20,280
En daar heb je ook heel even de tijd om erover na te denken.
517
00:34:21,639 --> 00:34:23,219
Oh, dat is de verkeerde.
518
00:34:23,219 --> 00:34:23,800
Dat is de verkeerde.
519
00:34:23,800 --> 00:34:24,760
Dat is de verkeerde.
520
00:34:24,760 --> 00:34:25,320
Dat is een lekker muziekje.
521
00:34:25,320 --> 00:34:27,600
[Muziek]
522
00:34:27,600 --> 00:34:32,239
[Muziek]
523
00:34:32,239 --> 00:34:36,580
[Muziek]
524
00:34:36,580 --> 00:34:42,540
[Muziek]
525
00:34:45,760 --> 00:34:46,639
Heb je een idee?
526
00:34:46,639 --> 00:34:52,239
Nou, niet direct, maar ik voel me wel gelijk een stuk beter met het muziekje.
527
00:34:52,239 --> 00:34:58,360
Nee, maar dat kan verschillende kanten op.
528
00:34:58,360 --> 00:35:03,360
Maar een beetje bij die bedrijfstoepassingen, meer als een soort algemene doel.
529
00:35:03,360 --> 00:35:08,680
Ik denk dat het ook heel belangrijk is om AI te maken waar mensen blij van worden.
530
00:35:08,680 --> 00:35:11,000
Dat klikt misschien heel esoterisch.
531
00:35:11,280 --> 00:35:21,000
Maar zelfs in een bedrijfscontext, dat is waarin je moet zorgen dat die AI zogenaamd actionable intelligence is.
532
00:35:21,000 --> 00:35:23,880
Dat die echt mensen helpt.
533
00:35:23,880 --> 00:35:24,980
Echte klanten helpt.
534
00:35:24,980 --> 00:35:26,300
Echte agent helpt.
535
00:35:26,300 --> 00:35:31,140
Dus niet iets wat ons allemaal verandert in een stelletje robots.
536
00:35:31,140 --> 00:35:36,080
Of voor een klant wel gewoon direct meerwaarde toevoegt.
537
00:35:36,880 --> 00:35:45,260
Ik zei eerder ook, die accepted intelligence, dat we dat op zo'n manier doen dat het ethisch verantwoord is.
538
00:35:45,260 --> 00:35:47,540
En dat klinkt vaak als een soort filosofische discussie.
539
00:35:47,540 --> 00:35:54,700
Maar in de praktijk komt er gewoon op neer van, neem je het belang mee van alle partijen.
540
00:35:54,700 --> 00:36:03,580
Als ik met AI leuke aanbevelingen doe, tips voor klanten, et cetera.
541
00:36:03,580 --> 00:36:08,460
Het is leuk dat dat tips zijn waar de bank of de telkeren wat aan heeft.
542
00:36:08,460 --> 00:36:11,160
Maar er moeten ook dingen zijn die interessant zijn voor de klant.
543
00:36:13,160 --> 00:36:16,600
Kan het ook helpen, want je begon met leuk, hè?
544
00:36:16,600 --> 00:36:26,380
Dat het iets van je creativiteit, want daar had je het straks ook over, dat AI iets zou kunnen prikkelen in de creativiteit.
545
00:36:26,380 --> 00:36:29,140
Die je misschien van nature niet hebt.
546
00:36:29,140 --> 00:36:33,300
Of op een gebied waar je wat minder bedreven bent.
547
00:36:33,300 --> 00:36:36,860
Dat dat je kan helpen waarbij je extra vreugde in je werk krijgt.
548
00:36:37,340 --> 00:36:40,680
Nou ja, dat zijn inderdaad ook leuke toepassingen.
549
00:36:40,680 --> 00:36:47,060
Hoe kan het eigenlijk de creativiteit stimuleren?
550
00:36:47,060 --> 00:36:56,200
Een soort PEGA voorbeeld is, dan kan ik de naam zeggen.
551
00:36:56,200 --> 00:36:58,840
Ik kan altijd nog de universitaire kant op gaan.
552
00:36:58,840 --> 00:36:59,380
Ja, leuk.
553
00:37:02,260 --> 00:37:08,780
Ja, één ding wat we zien is van als mensen een probleem, een systeem willen bouwen, weet je wel.
554
00:37:08,780 --> 00:37:13,260
Dan is natuurlijk eigenlijk, laat ik het persoonlijk houden.
555
00:37:13,260 --> 00:37:17,800
Mijn horrorscenario is, ik loop een van die meeting rooms binnen.
556
00:37:17,800 --> 00:37:22,580
Er staat een flip over en een hele blije persoon met een stapel post-its.
557
00:37:22,580 --> 00:37:26,220
En die gaat zeggen, we gaan alles lekker vanaf nul ontwerpen.
558
00:37:26,220 --> 00:37:30,740
Dan word ik heel erg zenuwachtig van, ben ik misschien.
559
00:37:30,840 --> 00:37:32,940
Maar dat klopt eigenlijk voor veel mensen.
560
00:37:32,940 --> 00:37:37,280
Dus als je iets nieuws moet gaan maken, en met zo'n hele groep mensen in de zaak.
561
00:37:37,280 --> 00:37:40,240
En je weet ook dat Sjaak daar net iets anders over denkt dan Chantal.
562
00:37:40,240 --> 00:37:45,860
Dat is gewoon eigenlijk niet fijn voor het creatieve proces.
563
00:37:45,860 --> 00:37:53,080
Wat we daar bijvoorbeeld doen, we hebben iets dat heet dan, bij van wc eent,
564
00:37:53,080 --> 00:37:54,540
PEGA Blueprint.
565
00:37:54,860 --> 00:38:02,120
Maar dan kun je eigenlijk zeggen, ik wil een systeem maken voor, we hebben al die grappige voorbeelden zoals Lama verhuur.
566
00:38:02,120 --> 00:38:05,400
Maar je kunt ook gewoon zeggen, ik heb een lening aanvraagproces.
567
00:38:05,400 --> 00:38:09,580
Of ik wil een subsidie indienen of wat het is.
568
00:38:10,220 --> 00:38:12,820
Dat staat gewoon op onze website.
569
00:38:12,820 --> 00:38:13,540
Iedereen kan erbij.
570
00:38:13,540 --> 00:38:14,800
Je kunt er gewoon lekker zelf mee spelen.
571
00:38:14,800 --> 00:38:20,040
Dus je kunt daar gewoon requirements in gooien van, nou, dit moet het systeem ongeveer doen.
572
00:38:20,040 --> 00:38:24,040
En dan spuugt die een eerste versie van zo'n systeem uit.
573
00:38:24,600 --> 00:38:26,780
Wat zijn de workflows die belangrijk zijn?
574
00:38:26,780 --> 00:38:27,760
Welke persona's?
575
00:38:27,760 --> 00:38:29,200
Hoe zien die workflows eruit?
576
00:38:29,200 --> 00:38:30,100
Wat zijn de stappen?
577
00:38:30,100 --> 00:38:38,420
En wat zijn de tot en met echte details van het voorbeeld van datumodellen die je eronder zou kunnen hebben?
578
00:38:38,420 --> 00:38:41,920
Dus dan heb je een soort startpunt waar je het lekker op zo'n Hollands mee oneens kan zijn.
579
00:38:41,920 --> 00:38:46,460
Dat belachelijke stap 4.2 moet 4.3 zijn.
580
00:38:46,460 --> 00:38:47,220
Nou, prima hè?
581
00:38:47,660 --> 00:38:51,460
Maar dan heb je mensen in een soort creatief proces zitten.
582
00:38:51,460 --> 00:38:55,840
Waarbij je veel sneller eigenlijk tot ideeën komt.
583
00:38:55,840 --> 00:38:58,440
En ook een beetje, er zit natuurlijk een bias in de AI.
584
00:38:58,440 --> 00:39:02,260
Maar je wordt ook een beetje op die manier beschermd tegen bias die in mensen zitten.
585
00:39:02,260 --> 00:39:05,000
We hebben allemaal puur ons eigen invalshoek.
586
00:39:05,000 --> 00:39:07,180
En als iemand anders ons wat laat zien.
587
00:39:07,180 --> 00:39:11,800
En we gaan er allemaal omheen staan en zeggen, dit vinden we goed en hier wat anders.
588
00:39:11,800 --> 00:39:14,660
Ja, dan kom je sneller tot een betere oplossing.
589
00:39:15,020 --> 00:39:19,860
En die wetenschappelijke kant, dat je daarvan zei, daar kan ik ook nog wat over zeggen.
590
00:39:19,860 --> 00:39:26,500
Ja, dus AI en creativiteit is ook een bijzonder spannend onderwerp.
591
00:39:26,500 --> 00:39:33,020
Dus aan de universiteit, ik heb weleens nagedacht van ja, ik vind zoveel dingen leuk hè.
592
00:39:33,020 --> 00:39:36,740
Hoe kan ik daar nou eigenlijk, hoe kan ik daar wat lijn in brengen?
593
00:39:36,740 --> 00:39:40,760
Of wat is de algemene deler die ik daarin heb?
594
00:39:40,760 --> 00:39:43,720
Nou, daar kwam ik uit op artificial acts.
595
00:39:43,720 --> 00:39:47,860
En dat is natuurlijk een beetje een nerd ding, want het is een formule.
596
00:39:47,860 --> 00:39:50,220
Met acts anything that makes us human.
597
00:39:50,220 --> 00:39:54,660
We hebben natuurlijk artificial intelligence, maar we zijn niet alleen maar intelligente wezens.
598
00:39:54,660 --> 00:39:58,940
We zijn ook emotionele wezens, relationele wezens en creatieve wezens.
599
00:39:58,940 --> 00:40:01,860
Dus het is ook leuk om te kijken naar andere eigenschappen.
600
00:40:01,860 --> 00:40:05,700
En kunnen we die op een artificial manier aanpakken.
601
00:40:05,820 --> 00:40:07,260
En creativiteit is daar een van.
602
00:40:07,260 --> 00:40:13,200
Dus ik heb bijvoorbeeld een student gehad.
603
00:40:13,200 --> 00:40:21,600
En die wilde eigenlijk zeggen van ja, ik wil wel een soort programma maken wat abstracte, moderne schilderijen kan maken.
604
00:40:21,600 --> 00:40:23,620
Ja, dat is een leuk onderwerp.
605
00:40:23,620 --> 00:40:28,920
En dat gaan we een beetje met AI, computational creativity aanpakken.
606
00:40:30,920 --> 00:40:35,760
Nou, ik vond dat allerlei verschillende soorten plaatjes ophoesten.
607
00:40:35,760 --> 00:40:38,060
Zoals we al tegenwoordig in Majorney konden doen.
608
00:40:38,060 --> 00:40:38,540
Nee, nee.
609
00:40:38,540 --> 00:40:43,340
Het moet echt, het moet een schilder zijn met een eigen, met een eigen signatuur.
610
00:40:43,340 --> 00:40:44,100
Ja, oké.
611
00:40:44,100 --> 00:40:44,940
Nou, leuk hè.
612
00:40:44,940 --> 00:40:45,360
Dat is al.
613
00:40:45,360 --> 00:40:48,940
En dit was trouwens 2015 of 16.
614
00:40:48,940 --> 00:40:50,680
Ah, ja, ja, precies.
615
00:40:50,680 --> 00:40:53,900
Echt voor alle stable diffusions en Midjourneys.
616
00:40:54,520 --> 00:41:02,860
Ja, maar ook als je kijkt naar die stable diffusions wat mensen maken, dan ja, het is toch een soort verzameling Yes and Marillion hoezen die langs komt.
617
00:41:02,860 --> 00:41:09,180
Ja, nee, het voelt, ja, nou, ik mis dan wel een beetje een stijl.
618
00:41:09,180 --> 00:41:11,980
En als het een stijl is gaan ze zeggen, maak een ding zoals Mondriaan.
619
00:41:11,980 --> 00:41:12,180
Ja.
620
00:41:12,180 --> 00:41:14,020
Dan denk van nou, verzin is zelf wat.
621
00:41:15,320 --> 00:41:22,620
Maar anyway, dus toen gingen we een beetje van ja, nou, dan is natuurlijk gelijk de handbraak van wat is goed.
622
00:41:22,620 --> 00:41:24,520
Wat is een goed schilderij?
623
00:41:24,520 --> 00:41:30,020
En dan kun je, en als het abstracte moderne kunst is, dan had ik natuurlijk met opzet een beetje gekozen.
624
00:41:30,020 --> 00:41:35,240
Ja, dan gaat het dus niet over zit er een verhaal achter, want het is abstract.
625
00:41:35,240 --> 00:41:37,920
Ja, dus je ziet geen visser bij de vijver zitten.
626
00:41:37,920 --> 00:41:40,720
Maar esthetiek is het misschien ook niet meer.
627
00:41:40,720 --> 00:41:46,760
Want je kunt in moderne kunsten een stapel olifantenpoep in een hoek gooien en dat kan ook iets zijn.
628
00:41:46,760 --> 00:41:48,500
Ja, een banaan en duct tape.
629
00:41:48,500 --> 00:41:49,600
Een banaan plakken tegen de wier.
630
00:41:49,600 --> 00:41:49,840
Ja.
631
00:41:49,840 --> 00:41:50,340
Precies.
632
00:41:50,340 --> 00:41:53,340
Dus toen kwamen we uit op emotie.
633
00:41:53,340 --> 00:41:59,980
Dus als een van de dingen van als je een schilderij ziet, met welke emotie loop je weg?
634
00:41:59,980 --> 00:42:04,060
En dan wilden we dus eigenlijk een robot.
635
00:42:04,060 --> 00:42:05,780
Dit was trouwens Jules Verduik.
636
00:42:05,780 --> 00:42:09,500
Ik moet hem echt eventjes noemen, want hij was echt de lead in dit.
637
00:42:10,180 --> 00:42:14,700
Maar wil je eigenlijk een opdracht kunnen geven, maak eens wat boze schilderijen.
638
00:42:14,700 --> 00:42:17,340
Of maak eens wat uitgelaten schilderijen.
639
00:42:17,340 --> 00:42:19,860
Of maak eens wat tevreden schilderijen.
640
00:42:19,860 --> 00:42:25,860
En wat we gedaan hadden, hij had 250 schilderijen gepakt, bestaande schilderijen.
641
00:42:25,860 --> 00:42:33,720
En per schilderij hebben tien mensen gezegd van nou dit is de emotie die ik voel, die ik ervaar bij het schilderij.
642
00:42:33,720 --> 00:42:37,360
Niet eens van wat bedoelt de schilderij, nee wat ervaar ik.
643
00:42:39,320 --> 00:42:42,900
Dus toen hadden we een dataset met 2000 van die metingen.
644
00:42:42,900 --> 00:42:49,520
En dan konden we in feite modellen gaan maken die je traint op hoe ziet een schilderij uit.
645
00:42:49,520 --> 00:42:51,620
En welke emotie past daarbij.
646
00:42:54,200 --> 00:42:59,000
En je kunt emoties ook een beetje indelen in dementies, zoals positief, negatief.
647
00:42:59,000 --> 00:43:03,500
Of het heet dan arousal, dus low arousal, high arousal.
648
00:43:03,500 --> 00:43:08,040
Dus ik ben super pissig, dat betekent heel negatief high arousal.
649
00:43:08,040 --> 00:43:14,400
Ik ben een beetje teleurgesteld, is negatief low arousal.
650
00:43:15,900 --> 00:43:23,120
Je kunt je voorstellen, op basis van die data konden we toen machine learning modellen trainen, die eigenlijk voorspellen voor een nieuw schilderij.
651
00:43:23,120 --> 00:43:25,760
Welke emotie hoort die nu best te maken?
652
00:43:25,760 --> 00:43:28,440
Dus ja, heel leuk.
653
00:43:28,440 --> 00:43:32,080
Want er kwamen we dingen tegen die je verwacht, zoals kleuren als ze zwart, et cetera.
654
00:43:32,080 --> 00:43:34,140
Dat is natuurlijk negatief.
655
00:43:35,200 --> 00:43:39,140
Maar we kwamen ook andere dingen tegen die we niet echt verwacht hadden.
656
00:43:39,140 --> 00:43:43,860
Dus we keken bijvoorbeeld naar, wat is de aspect ratio van een schilderij?
657
00:43:43,860 --> 00:43:47,220
Met andere woorden, is het meer liggend?
658
00:43:47,220 --> 00:43:48,240
Is het meer staand?
659
00:43:48,240 --> 00:43:50,040
Of is het meer vierkant?
660
00:43:50,040 --> 00:43:52,500
Gewoon horizontaal door het te maken.
661
00:43:52,500 --> 00:43:53,260
Ja, gewoon formaten.
662
00:43:53,260 --> 00:43:54,860
En dat werd gekoppeld aan een emotie?
663
00:43:54,860 --> 00:43:58,920
Dat werd gekoppeld aan een bepaalde dimensie van emotie.
664
00:43:58,920 --> 00:44:01,660
Misschien heb je wel een idee in welke dimensie dat zou kunnen zijn?
665
00:44:01,660 --> 00:44:03,000
Nee, eigenlijk niet.
666
00:44:03,900 --> 00:44:08,720
Ik denk dat het landschapformaat rust geeft.
667
00:44:08,720 --> 00:44:09,240
Klopt.
668
00:44:09,240 --> 00:44:10,220
Ja, heel goed.
669
00:44:10,220 --> 00:44:11,000
Ja, absoluut.
670
00:44:11,000 --> 00:44:12,220
Ik zei het ook in de fotografie.
671
00:44:12,220 --> 00:44:15,500
Ja, dus voor mensen die creatief bezig zijn, zegt dat dan wat.
672
00:44:15,500 --> 00:44:19,600
Maar het is toch leuk dat dat er inderdaad uit komt rollen.
673
00:44:19,600 --> 00:44:23,180
Dus liggend is low arousal, rustig.
674
00:44:23,180 --> 00:44:24,880
Staand is heel actief.
675
00:44:24,880 --> 00:44:27,080
Nou, vierkant is in het midden.
676
00:44:27,080 --> 00:44:33,420
Dat is dus het verschil tussen, zeg maar, nu een neerslachtig schilderij versus ik ben superboos.
677
00:44:33,420 --> 00:44:34,740
schilderij.
678
00:44:34,740 --> 00:44:35,960
Grappig.
679
00:44:35,960 --> 00:44:37,640
En er zit ook een stukje interpretatie in.
680
00:44:37,640 --> 00:44:42,880
Want kleuren betekent ook in andere kanten van de wereld iets anders dan hier in Nederland.
681
00:44:42,880 --> 00:44:44,500
Dus dat zit...
682
00:44:44,500 --> 00:44:48,700
Ja, het is ook wel leuk om te kijken dan naar verschillen of juist naar een hele diverse groep van mensen.
683
00:44:48,700 --> 00:44:53,100
We hadden wel internationale mensen die die rating schamen.
684
00:44:53,100 --> 00:44:54,480
En toen konden we natuurlijk...
685
00:44:54,480 --> 00:45:00,700
Dus toen hadden we een soort kunstcriticus die kon voorspellen aan de hand van een nieuw schilderij welke emotie hoort die bij.
686
00:45:00,700 --> 00:45:07,420
En toen hebben we genetische algoritme, dat is een soort evolutie in de computer, nagespeeld.
687
00:45:07,420 --> 00:45:11,480
Waar we eigenlijk random schilderijen genereren.
688
00:45:11,480 --> 00:45:13,780
Of eigenlijk met de regels van de evolutie.
689
00:45:13,780 --> 00:45:16,620
Nou, dan moet je natuurlijk evolutionary fitness hebben.
690
00:45:16,620 --> 00:45:20,580
Een soort maat van welke diertjes zijn fitter dan anderen.
691
00:45:21,100 --> 00:45:24,720
En daar gebruikten we dan weer die voorspellingsmodellen voor.
692
00:45:24,720 --> 00:45:27,400
En dan zeiden we van, maak maar boze schilderijen.
693
00:45:27,400 --> 00:45:28,880
Dus dan worden er schilderijen gemaakt.
694
00:45:28,880 --> 00:45:33,840
En met dat model konden we voorspellen, wat zijn de meest boze kindertjes.
695
00:45:33,840 --> 00:45:35,760
Ja, en de boze kindertjes mogen blijven.
696
00:45:35,760 --> 00:45:39,240
En de andere schilderijen, nou helaas, die worden op vakantie gestuurd.
697
00:45:39,240 --> 00:45:43,040
En dan gaan we weer allemaal nieuwe schilderijen maken.
698
00:45:43,040 --> 00:45:44,620
Als de kindertjes oud genoeg zijn.
699
00:45:44,620 --> 00:45:49,100
Dus hier zie je een leuk voorbeeld waarbij we...
700
00:45:49,100 --> 00:45:52,480
waarbij we machine learning, genetische algoritme.
701
00:45:52,480 --> 00:45:54,600
Dus verschillende takken van AI eigenlijk gebruiken.
702
00:45:54,600 --> 00:45:59,340
Om zo'n computational creativity problemen aan te pakken.
703
00:45:59,340 --> 00:46:01,200
Je hebt een stukje creativiteit.
704
00:46:01,200 --> 00:46:03,220
Je hebt agentic, heb je genoemd.
705
00:46:03,220 --> 00:46:05,220
Als je hem even in de privé sfeer zou trekken.
706
00:46:05,220 --> 00:46:11,360
Welke AI agent of welke creatieve oplossing zou je voor jezelf graag zien gecreëerd worden?
707
00:46:15,300 --> 00:46:21,280
Ja, gewoon puur als consument uitgebreken.
708
00:46:21,280 --> 00:46:22,300
Ja.
709
00:46:24,300 --> 00:46:28,580
Ja, dat vind ik een lastige.
710
00:46:28,580 --> 00:46:31,600
Ja, ik heb natuurlijk ook nog wat hobby's die ik naast mijn werk doe.
711
00:46:31,600 --> 00:46:32,260
Ja, waarom?
712
00:46:32,260 --> 00:46:33,240
Misschien in de hobby sfeer.
713
00:46:33,240 --> 00:46:36,060
Ja, nee, het is niet echt een hobby.
714
00:46:36,060 --> 00:46:37,460
Maar ik heb dit...
715
00:46:37,460 --> 00:46:38,480
Ja, ik heb een ander project.
716
00:46:38,480 --> 00:46:40,360
Dat in het begin, zei ik dat ook nog wel even.
717
00:46:40,360 --> 00:46:42,200
Van artistieke creatieve toepassingen.
718
00:46:42,200 --> 00:46:46,980
En dat is een project dat gaat een beetje over klimaatverandering.
719
00:46:48,380 --> 00:46:52,860
Ik noem het altijd gewoon een enorm zeehonden hippie project.
720
00:46:52,860 --> 00:46:54,840
Even als disclaimer.
721
00:46:54,840 --> 00:46:56,500
Dan kan ik gewoon lekker voluit gaan.
722
00:46:56,500 --> 00:46:56,880
Goed zo.
723
00:46:56,880 --> 00:46:57,520
Kom maar op.
724
00:46:57,520 --> 00:47:04,400
Maar het idee is dat de natuur staat onder dreiging van klimaatverandering.
725
00:47:04,400 --> 00:47:08,440
En met name ook de niet levende natuur.
726
00:47:10,360 --> 00:47:12,340
De natuur heeft geen stem.
727
00:47:12,340 --> 00:47:14,500
Dus we gebruiken AI eigenlijk in dit project.
728
00:47:14,500 --> 00:47:17,480
Om niet levende natuur een stem te geven.
729
00:47:17,480 --> 00:47:18,660
Waarom niet levende natuur?
730
00:47:18,660 --> 00:47:20,500
Dat we kennen natuurlijk al heel lang.
731
00:47:20,500 --> 00:47:23,160
Pratende beren of sprekende vissen.
732
00:47:23,160 --> 00:47:27,700
Dus het is leuker als een smeltende gletsjer of een opdrogende rivier.
733
00:47:27,700 --> 00:47:28,320
Oh zo, ja.
734
00:47:28,320 --> 00:47:31,160
Als die eigenlijk een verhaal vertelt.
735
00:47:31,160 --> 00:47:35,140
Eigenlijk een boodschap stuurt aan wereldleiders.
736
00:47:35,140 --> 00:47:38,260
In deze context van klimaatverandering.
737
00:47:38,560 --> 00:47:41,680
Dat is een project dat doe ik samen met Jeroen van der Most.
738
00:47:41,680 --> 00:47:42,820
Een RIA kunstenaar.
739
00:47:42,820 --> 00:47:46,460
En ja, we genereren dus heel veel verschillende boodschappen.
740
00:47:46,460 --> 00:47:49,740
En dan proberen we allerlei nieuwe manieren te vinden.
741
00:47:49,740 --> 00:47:53,320
Om die boodschappen naar de mensheid te krijgen.
742
00:47:53,320 --> 00:47:54,000
Mooi.
743
00:47:54,000 --> 00:47:55,460
Ik zie er gelijk al een traan.
744
00:47:55,460 --> 00:47:56,600
Maar echt niet alleen een traan.
745
00:47:56,600 --> 00:47:58,720
Maar echt gewoon een stormvloed aan tranen inderdaad.
746
00:47:58,720 --> 00:47:59,640
Oh mooi.
747
00:47:59,640 --> 00:48:00,200
Ja, nou.
748
00:48:00,200 --> 00:48:02,100
En wat leuk is.
749
00:48:02,100 --> 00:48:03,880
Dit is waar ik.
750
00:48:05,140 --> 00:48:09,300
Ik had sinds juli 2020 toegang tot GPT-3.
751
00:48:09,300 --> 00:48:13,340
Dus dat was anderhalf jaar voordat het vrij beschikbaar was.
752
00:48:13,340 --> 00:48:17,840
Dus ik had leuke spulletjes om mee te spelen.
753
00:48:19,800 --> 00:48:24,940
En het is ook wel inzichtelijk als je een deel van het creatieve proces eigenlijk buiten jezelf legt.
754
00:48:24,940 --> 00:48:30,700
Dus er is altijd in EHI kunst heel veel gepraat van nou wie is nu de eigenaar.
755
00:48:30,700 --> 00:48:36,460
En eigenlijk mensen die dit soort dingen maken, die vinden dat eigenlijk niet zo'n interessante vraag.
756
00:48:36,460 --> 00:48:39,900
Want het is altijd een soort combinatie van.
757
00:48:40,140 --> 00:48:45,700
En het kan heel nuttig zijn om een gedeelte van je creatieve proces buiten jezelf te hebben.
758
00:48:45,700 --> 00:48:48,900
Dus je krijgt allerlei, ja er worden allemaal boodschappen gemaakt.
759
00:48:48,900 --> 00:48:59,000
En dat leidt weer tot nieuwe ideeën van wat voor prompts kan ik maken om weer interessante verhalen uit die klagende gletsje te krijgen.
760
00:48:59,460 --> 00:49:07,300
Dus dat is ook, ja in het begin kregen we dus heel veel van de natuur die om help vraagt.
761
00:49:07,300 --> 00:49:13,980
En dan, het is natuurlijk een sympathie project waarnaar naar honderd klagende gletsjers ben je wel een beetje klaar met die gletsjer.
762
00:49:13,980 --> 00:49:15,500
Met die zurende gletsjer.
763
00:49:15,500 --> 00:49:23,200
Dus dan ga je een beetje nadenken van ja maar waarom zouden zij eigenlijk klagen?
764
00:49:23,200 --> 00:49:26,000
Of waarom zouden zij überhaupt om moeten vragen?
765
00:49:26,000 --> 00:49:31,940
Weet je dus, stel worst case scenario, wij blazen alles en iedereen op.
766
00:49:31,940 --> 00:49:34,640
Ja dan is de mensheid er niet meer maar de natuur is er wel.
767
00:49:34,640 --> 00:49:40,200
En nagelang hoe we onszelf hebben opgeblazen dan duurt dat of tienduizend jaar of honderdduizend jaar.
768
00:49:40,200 --> 00:49:42,380
Voor de natuur om zichzelf te herstellen.
769
00:49:42,380 --> 00:49:43,040
Ja nothing.
770
00:49:43,040 --> 00:49:46,840
Op miljoenen jaren.
771
00:49:46,840 --> 00:49:51,620
Dus eigenlijk heeft die natuur helemaal geen hulp nodig.
772
00:49:51,620 --> 00:49:52,560
We hebben zelf hulp nodig.
773
00:49:52,560 --> 00:49:53,740
Ah wacht eens eventjes.
774
00:49:54,200 --> 00:50:03,020
Ja dan misschien moeten we dan, kunnen we ook bijvoorbeeld boodschappen laten schrijven vanuit andere invalshoekers.
775
00:50:03,020 --> 00:50:06,120
Bijvoorbeeld meer de wraakzuchtige natuur.
776
00:50:06,120 --> 00:50:08,860
Of erger nog de onverschillige natuur.
777
00:50:08,860 --> 00:50:10,960
Die zegt van nou ga jullie gang.
778
00:50:10,960 --> 00:50:12,980
Doe maar wat je wil.
779
00:50:13,640 --> 00:50:19,460
En dan kom je eigenlijk tot interessantere uitingen.
780
00:50:19,460 --> 00:50:33,760
Dan kom je ook weer uit bij dingen die, bijvoorbeeld die wraakzuchtige natuur, die was eigenlijk heel makkelijk om ChatGPT zover te krijgen, om die taalmiddelen zover te krijgen, om dat soort boodschappen uit te spuren.
781
00:50:33,760 --> 00:50:42,080
Dan denk je van ja dat is ook niet zo raar, want wij, ja het idee dat wij heer-en-meester zijn over de natuur is ook nog maar vrij recent.
782
00:50:42,080 --> 00:50:48,120
Honderd jaar geleden gingen lopen in een bos en dan mocht je kiezen, word je verscheurd door de wolven of door de beren.
783
00:50:48,120 --> 00:50:49,740
Maar dat was het zo'n beetje.
784
00:50:51,180 --> 00:51:01,620
En dat zie je direct terug omdat die generative AI heel creatief kan omgaan, bijvoorbeeld met die invalshoek.
785
00:51:01,620 --> 00:51:05,280
Mooi. Hoe zou je dit kunnen vertalen naar je werk?
786
00:51:05,280 --> 00:51:15,960
Waarbij je dan zegt van hey maar ik ga het eens even helemaal naar een ander oogpunt, een ander perspectief pakken en daar gebruik ik deze technologie voor.
787
00:51:16,860 --> 00:51:26,880
Nou ik denk dat wel, ja dat eigenlijk voor, maakt er eigenlijk niet zo heel veel uit waar je bijvoorbeeld generative AI voor inzet.
788
00:51:26,880 --> 00:51:35,540
Maar dat is op zich wel een pluspunt. Er wordt inderdaad veel gesproken over bias in AI en generative AI is biased en andere vormen van AI zijn biased.
789
00:51:35,540 --> 00:51:37,360
Maar ja wij zijn ook hartstikke biased.
790
00:51:37,360 --> 00:51:37,740
Precies ja.
791
00:51:38,180 --> 00:51:48,480
Wat dat betreft als je kan sparren met iemand anders, een persoon of een AI, dat kan heel nuttig zijn om op nieuwe ideeën te komen.
792
00:51:48,480 --> 00:51:52,960
Dat is deels vanwege de stress van het komen met nieuwe ideeën.
793
00:51:52,960 --> 00:51:59,280
Dan hebben we ander onderzoek gedaan waarbij we mensen AI tools, toegang aan of AI tools.
794
00:51:59,280 --> 00:52:07,160
En dan zagen we dat mensen veel creatiever werden als ze wat geholpen werden met voorbeelden.
795
00:52:07,160 --> 00:52:13,100
Dus het helpt je over de stress heen van het moeten bedenken van iets.
796
00:52:13,100 --> 00:52:20,640
Maar het kan je ook nieuwe ideeën geven omdat het je in richtingen leidt die je zelf niet helemaal voorzien had.
797
00:52:20,640 --> 00:52:20,800
Ja.
798
00:52:20,800 --> 00:52:23,560
En je kan natuurlijk ook gewoon letterlijk om tegenwoord vragen.
799
00:52:23,560 --> 00:52:23,960
Ja.
800
00:52:23,960 --> 00:52:25,360
Ja.
801
00:52:25,360 --> 00:52:29,440
Je kunt absoluut vragen waar nou redeneren ze de andere kant op.
802
00:52:29,440 --> 00:52:29,700
Ja.
803
00:52:29,700 --> 00:52:30,160
Toch?
804
00:52:30,160 --> 00:52:30,440
Ja.
805
00:52:30,440 --> 00:52:33,420
Of welk aspect mis ik hier omdat je het zelf misschien niet ziet?
806
00:52:33,420 --> 00:52:35,800
Of dat er iets überhaupt mist dat je dat niet ziet?
807
00:52:35,800 --> 00:52:36,460
Ja.
808
00:52:36,460 --> 00:52:37,880
Leuk.
809
00:52:37,880 --> 00:52:40,720
Volgens mij zijn we echt alle kanten opgeschoten in die zin.
810
00:52:40,720 --> 00:52:45,700
Dus wat mij betreft kan de laatste vraag ook nog een andere kant op.
811
00:52:45,700 --> 00:52:51,840
Maar hoewel het zit nog steeds in de creativiteit en AI en dat soort zaken.
812
00:52:51,840 --> 00:53:01,680
was ik eigenlijk wel benieuwd van welk technisch, nee welk niet technisch boek heeft invloed gehad op de visie die jij hebt rondom AI?
813
00:53:01,680 --> 00:53:02,700
Wow.
814
00:53:02,700 --> 00:53:03,840
Nou.
815
00:53:03,840 --> 00:53:05,340
Goeie vraag.
816
00:53:05,340 --> 00:53:09,400
Welk niet technisch boek heeft invloed gehad op mijn visie?
817
00:53:09,400 --> 00:53:13,080
Je zit al zo lang in deze wereld.
818
00:53:13,080 --> 00:53:13,700
Ja.
819
00:53:13,700 --> 00:53:14,280
Ja.
820
00:53:14,280 --> 00:53:17,040
Nou dat vind ik toch een lastige.
821
00:53:17,040 --> 00:53:21,920
Een niet technisch boek.
822
00:53:21,920 --> 00:53:24,120
Of een film.
823
00:53:24,120 --> 00:53:25,280
Of de omhoog.
824
00:53:25,280 --> 00:53:25,520
Ja.
825
00:53:25,520 --> 00:53:25,840
Ja.
826
00:53:25,840 --> 00:53:27,880
Ik bedoel, laten we het lekker ruim interpreteren.
827
00:53:27,880 --> 00:53:28,140
Ja.
828
00:53:28,400 --> 00:53:30,960
Ja.
829
00:53:30,960 --> 00:53:31,720
Ja.
830
00:53:31,720 --> 00:53:38,340
Ja, er zijn natuurlijk heel veel interessante boeken en films over het thema die niet technisch zijn en die wel interessante vragen stellen.
831
00:53:38,560 --> 00:53:45,040
Dus een ander onderwerp wat ik heel interessant vind is onze relatie tot de AI.
832
00:53:45,040 --> 00:53:45,440
Ja.
833
00:53:45,440 --> 00:53:52,360
En wanneer gaan wij, hoe bouwen we relaties op met artificial beings?
834
00:53:52,360 --> 00:53:55,260
Voor de goede redenen, maar ook voor de foute redenen.
835
00:53:55,260 --> 00:54:03,440
Dus we doen ook veel onderzoek naar bijvoorbeeld AI die niet per se, die eigenlijk niet per se de juiste antwoorden of hulp geeft.
836
00:54:03,440 --> 00:54:03,660
Ja.
837
00:54:03,660 --> 00:54:09,240
Waarbij mensen wel, we gaan leunen op de AI.
838
00:54:09,240 --> 00:54:12,900
En dat is natuurlijk heel erg interessant, omdat je dat ook weer wil voorkomen natuurlijk.
839
00:54:12,900 --> 00:54:19,960
Maar in die hele categorie vind ik, ik blijf Her ook een hele goede film.
840
00:54:19,960 --> 00:54:20,400
Oh ja.
841
00:54:20,400 --> 00:54:20,640
Ja.
842
00:54:20,640 --> 00:54:21,040
Leuk.
843
00:54:21,040 --> 00:54:32,000
En ja, niet alleen maar om het gimmicky effect van een chatbot waar je op verliefd wordt, want dat is een beetje het hoofdthema van die film.
844
00:54:32,000 --> 00:54:32,320
Ja.
845
00:54:32,320 --> 00:54:40,840
Dus er is een chatbot met de stem van, hoe heet ze ook weer?
846
00:54:40,840 --> 00:54:42,980
Ja, we kennen de actrice.
847
00:54:42,980 --> 00:54:43,600
We kennen de actrice.
848
00:54:43,600 --> 00:54:44,900
Ja, ik kom er ook even niet op.
849
00:54:44,900 --> 00:54:46,080
We gaan weer met de brain freeze.
850
00:54:46,080 --> 00:54:47,300
Ja, Scarlett Johansson.
851
00:54:47,300 --> 00:54:47,480
Ja.
852
00:54:47,480 --> 00:54:55,660
En ja, de persoon in de film, die bouwt langzaam een band op met die bot.
853
00:54:55,660 --> 00:54:59,400
Om dan uiteindelijk ook zwaar teleurgesteld te zijn, ja, spoiler alert.
854
00:54:59,400 --> 00:55:06,020
Als dus blijkt dat zij een paar duizend andere mensen ook helpt met chat.
855
00:55:06,020 --> 00:55:10,800
Maar ik vind het een hele mooie film.
856
00:55:10,800 --> 00:55:22,820
Want het gaat ook over, ja, met het risico om heel erg filosofisch te worden hier in Weenendaal-West om half twaalf 's ochtends.
857
00:55:23,200 --> 00:55:29,240
Maar over existentiële problemen, van waarom zijn we op de wereld, het verlangen naar contact.
858
00:55:29,240 --> 00:55:36,280
Of ja, hoe ontwikkelen we relaties, waar gaat dat goed, waar gaat dat fout.
859
00:55:36,280 --> 00:55:46,700
Ja, dus ik vind dat, ja, ik blijf dat een film vinden die ik heel fascinerend vind.
860
00:55:46,980 --> 00:55:51,960
Er is een soort eerste laag van het verhaal, wat al een amusant verhaal is of interessant verhaal is.
861
00:55:51,960 --> 00:55:54,860
Maar ja, het heeft ook wel veel voet gestort.
862
00:55:54,860 --> 00:55:58,820
Ja, en het gaat ook over interactie eigenlijk, dus interactie tussen mens en machine.
863
00:55:58,820 --> 00:56:02,220
Ik denk dat dat het verhaal voor vandaag ook best wel mooi rondmaakt.
864
00:56:02,220 --> 00:56:08,600
Dus ChatGPT doorgebroken vanwege dat ze een interactie hebben gevonden die het toegankelijk maakt.
865
00:56:09,360 --> 00:56:11,780
Dit is denk ik wel een hele mooie.
866
00:56:11,780 --> 00:56:12,580
Een mooi bijpast.
867
00:56:12,580 --> 00:56:12,780
Ja.
868
00:56:12,780 --> 00:56:13,980
Hé, dankjewel.
869
00:56:13,980 --> 00:56:22,040
Ik denk dat we heel veel geleerd hebben en inzicht hebben gekregen in wat jij doet rondom AI.
870
00:56:22,040 --> 00:56:24,100
Dus dankjewel voor je komst naar de studio.
871
00:56:24,100 --> 00:56:28,820
En iedereen voor de rest bedankt voor het luisteren.
872
00:56:30,420 --> 00:56:33,260
Vergeet je niet te abonneren via je favoriete podcast app.
873
00:56:33,260 --> 00:56:35,000
Dan mis je geen aflevering.
874
00:56:35,000 --> 00:56:35,940
Tot de volgende keer.
875
00:56:35,940 --> 00:56:36,760
Tot de volgende keer.