
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E31 - Behoedzaam experimenteren: de nuchtere kijk op AI in journalistiek
Laurens Vreekamp, schrijver, journalist en design thinker, bespreekt de impact van AI op de journalistiek in de nieuwste aflevering van AIToday Live. Hij belicht hoe AI-toepassingen zoals beeldherkenning en data-analyse nieuwe mogelijkheden bieden voor innovatieve projecten en efficiënter onderzoek.
Vreekamp benadrukt het belang van nauwkeurigheid en ethische overwegingen bij het gebruik van AI in de media. Hij pleit voor duidelijke richtlijnen en transparantie om de kwaliteit en betrouwbaarheid van journalistiek werk te waarborgen.
Hoewel AI volgens Vreekamp een groeiende rol zal spelen in het medialandschap, waarschuwt hij dat het geen wondermiddel is. Hij moedigt journalisten aan om zelf te experimenteren met AI-tools, maar benadrukt het belang van een kritische blik en het behoud van menselijke expertise.
Onderwerpen
- Rol van AI in de journalistiek
- Van discriminerende naar generatieve AI
- Nieuwe mogelijkheden en projecten met AI
- Ethische overwegingen en regulering
- Toekomst van AI in de media
- Podcast: AIToday Live podcast
- Boek: The Art of AI
- Boek: The Tech Coup - Marietje Schaake
- Opleidingsinstituut: Nationale AI-cursus
- Podcast: Shell Game - Evan Redliff
- Organisatie: Dagens Nyheter
- Tool: NotebookLM
- Tool: GoodTape.io
- Tool: Languagetool.org
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: NRC
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:04,240
In deze aflevering hoor je Laurens Vreekamp, schrijver, journalist en designthinker,
2
00:00:04,240 --> 00:00:11,320
die uitlegt hoe AI-toolsjournalisten helpen om uit grote documentensets nauwkeurigere verhalen te distilleren.
3
00:00:11,320 --> 00:00:16,719
Vanuit zijn unieke achtergrond als interactiedesigner en voormalig Google News Lab-medewerker
4
00:00:16,719 --> 00:00:23,120
onthult hij de subtiele balans tussen technologie omarmen en menselijke creativiteit beschermen in het medialandschap.
5
00:00:23,120 --> 00:00:25,120
Dus blijf luisteren!
6
00:00:25,121 --> 00:00:30,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
7
00:00:30,000 --> 00:00:31,880
Mijn naam is Joop Snijder, CTO bij Aigency.
8
00:00:31,880 --> 00:00:34,740
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
9
00:00:34,740 --> 00:00:37,300
En vandaag te gast Laurens Vreekamp.
10
00:00:37,300 --> 00:00:41,020
Laurens, geweldig dat je bij ons in de studio wilt komen.
11
00:00:41,020 --> 00:00:42,420
Dankjewel voor de uitnodiging.
12
00:00:42,420 --> 00:00:45,880
Ja, en zou je jezelf eerst even willen voorstellen aan de luisteraars?
13
00:00:45,880 --> 00:00:51,180
Ja, ik ben Laurens Vreekamp en ik ben schrijver, journalist en design thinker.
14
00:00:51,180 --> 00:00:52,640
Zo ben ik ooit opgeleid.
15
00:00:53,040 --> 00:00:55,740
Interaction design, denk dat het nu digital product design zou heten.
16
00:00:55,740 --> 00:00:58,080
En schrijver bijvoorbeeld voor Villamedia.
17
00:00:58,080 --> 00:01:01,280
Ik zit ook in het mediaforum van Radio 1 Spraakmakers.
18
00:01:01,280 --> 00:01:06,360
Ik heb in 2022 samen met Marlies van der Wees van DPG Media een boek geschreven.
19
00:01:06,360 --> 00:01:07,180
Die Art of AI.
20
00:01:07,180 --> 00:01:08,960
Ik kwam een half jaar voor ChatGPT uit.
21
00:01:08,960 --> 00:01:11,460
En daarna zei iedereen, oh, we willen daar wel meer over.
22
00:01:11,460 --> 00:01:13,220
Kan je eens langskomen.
23
00:01:13,220 --> 00:01:14,840
Dus ik ben nu op heel veel redacties geweest.
24
00:01:14,840 --> 00:01:20,740
Ja, want hoe ben je in het vakgebied van AI gerold?
25
00:01:20,960 --> 00:01:27,060
Nou, ik ben dus al in, dat is echt wel al lang geleden, dus in 1999 ben ik interaction design gaan studeren aan de kunstacademie, de HKU.
26
00:01:27,060 --> 00:01:27,420
Ja.
27
00:01:27,420 --> 00:01:29,940
En onze faculteit stond in Hilversum.
28
00:01:29,940 --> 00:01:31,740
Ze wilden dicht bij de media zitten.
29
00:01:31,740 --> 00:01:35,460
Dus vooral digitale media, interactieve media, het internet kwam op.
30
00:01:35,460 --> 00:01:38,140
Dus ik was altijd wel geïnteresseerd in design en technologie.
31
00:01:38,140 --> 00:01:39,680
Maar ook in journalistiek.
32
00:01:39,680 --> 00:01:41,860
Maar toen hiervoor moest ik toegelaten worden voor die opleiding.
33
00:01:42,000 --> 00:01:42,740
En dan kies ik dat.
34
00:01:42,740 --> 00:01:46,320
En wel altijd naar de journalistiek en media blijven kijken.
35
00:01:46,320 --> 00:01:49,620
Daar ging mijn eindthesis, heette het dan over.
36
00:01:49,620 --> 00:01:53,360
Volgens mij had ik dat iets van hybride nieuwsmedia ecosystemen genoemd.
37
00:01:53,360 --> 00:01:53,480
Zo.
38
00:01:53,480 --> 00:01:59,840
Met andere woorden, er komen nu ook mensen die geen journalist zijn op en die gaan ook content publiceren online.
39
00:01:59,840 --> 00:02:02,120
En de nieuwsmedia moeten daar ook iets mee.
40
00:02:02,120 --> 00:02:03,260
Dat heeft wel even geduurd.
41
00:02:03,920 --> 00:02:05,500
Maar ik dacht, nou ga ik vast onderzoeken.
42
00:02:05,500 --> 00:02:06,340
Want volgens mij is dat interessant.
43
00:02:06,340 --> 00:02:07,820
En toen had je nog niet eens YouTube.
44
00:02:07,820 --> 00:02:08,720
Dit was in 2003.
45
00:02:08,720 --> 00:02:10,780
Maar wel Wikipedia en blogs.
46
00:02:10,780 --> 00:02:15,600
Ik dacht, oh ja, daar komt een soort alternatieve sfeer op met mensen die verhalen schrijven.
47
00:02:15,600 --> 00:02:16,620
Die hoeven niet altijd waar te zijn.
48
00:02:16,620 --> 00:02:19,360
Die gebruiken niet altijd dezelfde methode als journalisten.
49
00:02:19,360 --> 00:02:21,900
Maar voor de ontvanger zien ze er ongeveer hetzelfde uit.
50
00:02:21,900 --> 00:02:22,960
Was je er vroeg bij?
51
00:02:22,960 --> 00:02:23,320
Ja.
52
00:02:23,320 --> 00:02:24,220
Ja, ik denk het wel.
53
00:02:24,220 --> 00:02:26,360
En ik had het misschien nog beter op moeten schrijven, maar het was ook gewoon vroeg.
54
00:02:26,360 --> 00:02:26,720
Ja.
55
00:02:26,720 --> 00:02:32,380
En toen heb ik bij verschillende bedrijven gewerkt.
56
00:02:32,380 --> 00:02:33,600
Vaak in de media.
57
00:02:33,760 --> 00:02:35,600
Dus bij de publieke omroep, KRO-NCRV.
58
00:02:35,600 --> 00:02:36,640
Ook bij de kunstbende.
59
00:02:36,640 --> 00:02:39,240
Ik heb bij een reclamebureau gewerkt.
60
00:02:39,240 --> 00:02:40,440
Altijd als interaction designer.
61
00:02:40,440 --> 00:02:43,600
Dus zo kon ik een beetje verschillende takken van sport leren kennen.
62
00:02:43,600 --> 00:02:45,740
En toen ben ik gaan lesgeven in 2010.
63
00:02:45,740 --> 00:02:46,900
Vond ik heel leuk om te doen.
64
00:02:46,900 --> 00:02:50,420
Maar na een jaar of zeven, acht kon je daar eigenlijk alleen maar manager worden.
65
00:02:50,420 --> 00:02:50,820
Oh ja.
66
00:02:50,820 --> 00:02:51,580
Of promoveren.
67
00:02:51,580 --> 00:02:52,480
En dat wilde ik allebei niet.
68
00:02:52,480 --> 00:02:55,140
Want ik vond juist het werken met studenten en de inhoud leuk.
69
00:02:55,140 --> 00:02:58,200
En toen was ik op zoek naar iets anders.
70
00:02:58,200 --> 00:02:59,740
En toen werd ik benaderd door Google.
71
00:02:59,740 --> 00:03:02,760
Hun News Lab of Google News Initiative heeft een News Lab.
72
00:03:02,880 --> 00:03:06,460
Dus daar experimenteer je met nieuwe digitale vormen van journalistiek.
73
00:03:06,460 --> 00:03:10,060
En de vraag was, wil je dat bij ons doen en dan redacties helpen?
74
00:03:10,060 --> 00:03:10,560
Ja.
75
00:03:10,880 --> 00:03:18,520
En dus zo kwam ik eigenlijk heel leuk vanuit het lesgeven aan studenten naar het soort van ontwikkelen met redacties en journalisten en uitgevers.
76
00:03:18,520 --> 00:03:20,340
En dat was 2018.
77
00:03:20,340 --> 00:03:22,400
En toen was ik daar bij Google intern.
78
00:03:22,400 --> 00:03:27,800
En daar kon je iedere dag wel naar een AI machine learning workshop online of gast spreken.
79
00:03:28,460 --> 00:03:30,680
En toen dacht ik, ja, dit is toch wel interessant.
80
00:03:30,680 --> 00:03:32,040
Dus ik heb daar het een en ander gevolgd.
81
00:03:32,040 --> 00:03:34,200
En toen dacht ik, dit gaat wel impact hebben.
82
00:03:34,200 --> 00:03:34,500
Ja.
83
00:03:34,500 --> 00:03:38,240
En toen liep mijn, ik was dan een teaching fellow, heette dat dan.
84
00:03:38,240 --> 00:03:40,480
Dat waren tijdelijke banen.
85
00:03:40,480 --> 00:03:40,800
Ja.
86
00:03:40,800 --> 00:03:40,820
Ja.
87
00:03:40,820 --> 00:03:41,100
Ja.
88
00:03:42,100 --> 00:03:43,100
Ja, functie.
89
00:03:43,100 --> 00:03:47,440
En toen, nadat het een keer verlengd was, toen zeiden ze nou even kunnen kijken of er nog wel iets anders te doen is.
90
00:03:47,440 --> 00:03:48,260
En toen kwam corona.
91
00:03:48,260 --> 00:03:50,080
Toen zeiden ze, we mogen niemand meer aannemen.
92
00:03:50,080 --> 00:03:51,100
Hiring freeze.
93
00:03:51,100 --> 00:03:52,740
Geen nieuwe projecten meer.
94
00:03:52,740 --> 00:03:53,700
Dus dit was het.
95
00:03:53,700 --> 00:03:54,080
Ja.
96
00:03:54,080 --> 00:04:01,880
En toen dacht ik, oké, nou, met wat ik gezien heb aan wat er aan machine learning ook voor journalisten en in de media allemaal te doen zou kunnen zijn.
97
00:04:01,880 --> 00:04:03,620
Misschien ga ik me daar dan maar op berichten.
98
00:04:03,620 --> 00:04:03,960
Ja.
99
00:04:03,960 --> 00:04:05,200
En dan ga ik dat denk ik maar zelf doen.
100
00:04:05,200 --> 00:04:05,560
Ja.
101
00:04:05,560 --> 00:04:06,240
Dat heb ik gedaan.
102
00:04:06,240 --> 00:04:07,260
Mooi.
103
00:04:07,260 --> 00:04:11,960
En wat je zegt van in 2018, zo van, hé, dit is misschien wel wat, hè.
104
00:04:11,960 --> 00:04:20,880
Wat is er geworden van wat je toen dacht van in de zin van, deze technologie gaat zich verder ontplooien?
105
00:04:21,380 --> 00:04:23,700
Nou, wat ik toen zag, dat heet dat tegenwoordig.
106
00:04:23,700 --> 00:04:26,440
En jullie hadden het er geloof ik met Charlotte Meindersma ook over.
107
00:04:26,440 --> 00:04:29,360
Die zeiden van, ja, er is veel meer dan generative AI dan die generatieve AI.
108
00:04:29,360 --> 00:04:29,680
Ja.
109
00:04:29,680 --> 00:04:31,740
En die was het toen eigenlijk nog niet zo.
110
00:04:31,740 --> 00:04:32,080
Ja.
111
00:04:32,080 --> 00:04:34,960
In 2018 was dat helemaal niet bekend en ook niet zo goed als nu.
112
00:04:34,960 --> 00:04:39,380
Maar dat heet, nu heb ik met terugwerkende kracht vorig jaar gelid, discriminative AI.
113
00:04:39,380 --> 00:04:40,960
De oude vorm.
114
00:04:40,960 --> 00:04:41,320
Ja.
115
00:04:41,320 --> 00:04:44,620
En dus de discriminerende, dus degene die onderscheid maakt.
116
00:04:44,620 --> 00:04:47,040
En dat was eigenlijk, dacht ik, maar dat is heel handig voor journalisten.
117
00:04:47,120 --> 00:04:54,940
Want als je dan bijvoorbeeld een bak met satellietfoto's krijgt, dan kun je daar zonnepanelen of ontbossing of Russische loopgraven op herkennen.
118
00:04:54,940 --> 00:04:59,440
En ja, dat kan je met de blote ogen niet de hele middag zitten doen of je ziet het niet altijd.
119
00:04:59,440 --> 00:05:00,720
En dat kan een machine wel.
120
00:05:00,720 --> 00:05:05,260
Ja, en dat discrimineren is niet het discrimineren van mensen, maar onderscheid maken in klasses.
121
00:05:05,500 --> 00:05:07,080
Ja, in klasses inderdaad.
122
00:05:07,080 --> 00:05:08,480
Dus dit kan filteren en klussen.
123
00:05:08,480 --> 00:05:11,680
Deze dingen horen bij elkaar of hier staat het wel op en hier zie ik het object niet.
124
00:05:11,680 --> 00:05:13,660
En dat kon zowel in tekst en beeld.
125
00:05:13,660 --> 00:05:16,980
En dat leerde ik dan al zeg maar achter de schermen bij Google.
126
00:05:16,980 --> 00:05:19,380
En dan hadden ze wel wat ideetjes wat de journalistiek ermee zou kunnen.
127
00:05:19,380 --> 00:05:20,500
Dus voor beeld en tekst.
128
00:05:20,500 --> 00:05:23,940
En hoe je documenten snel op entiteiten kunt doorzoeken.
129
00:05:23,940 --> 00:05:27,320
Bijvoorbeeld dat die mensen, locaties en organisaties herkent.
130
00:05:27,320 --> 00:05:27,760
Ja.
131
00:05:27,760 --> 00:05:30,020
Nou, dat is hartstikke waardevol voor journalisten.
132
00:05:30,020 --> 00:05:34,000
En niet alleen omdat het dan je sneller maakt of efficiënter, wat we nu vaak horen.
133
00:05:34,000 --> 00:05:35,760
Maar vooral ook omdat het je helpt.
134
00:05:35,760 --> 00:05:42,460
Want als ik dus dit soort hele grote documentensets kan doorzoeken of deze beelden, dan kan ik ook andere projecten gaan doen.
135
00:05:42,460 --> 00:05:45,560
En een mooi voorbeeld daarvan, om er maar meteen een te noemen.
136
00:05:45,560 --> 00:05:46,000
Ja, graag.
137
00:05:46,000 --> 00:05:48,360
Dat heeft NRC twee jaar terug gedaan, geloof ik.
138
00:05:48,360 --> 00:05:49,260
Dat heette de Wilde Tuin.
139
00:05:49,260 --> 00:05:56,120
En dan hebben ze gevraagd aan lezers, zou je een jaar lang je tuin willen laten verwilderen?
140
00:05:56,120 --> 00:05:59,120
En dan een vierkante meter, als je daar niet helemaal comfortabel mee bent.
141
00:05:59,120 --> 00:06:04,040
En toen deden er 8500 mensen mee.
142
00:06:04,040 --> 00:06:04,360
Zo.
143
00:06:04,360 --> 00:06:09,900
Je kunt je indenken, als iedereen die meedoet, iedere week een fotootje stuurt, dan zegt,
144
00:06:09,900 --> 00:06:11,200
nou, mijn mestkever is er al.
145
00:06:11,200 --> 00:06:13,660
Die madelief, die heb ik nog niet gezien.
146
00:06:13,660 --> 00:06:14,640
Of de sneeuwklokjes bloeien al.
147
00:06:14,640 --> 00:06:18,400
Ja, dat gaat niet lukken voor 8000 mensen.
148
00:06:18,400 --> 00:06:19,460
Dus weer schaal en snelheid.
149
00:06:19,460 --> 00:06:24,600
En zij wisten daar op de redactie, want we hebben ze samengewerkt met Opsidentifywaarneming.nl.
150
00:06:24,600 --> 00:06:29,800
Dus die kan dan schimmels, paddenstoelen, planten, insecten, van alles herkennen.
151
00:06:29,800 --> 00:06:34,300
En zij wisten, als we die technologie kunnen inzetten, dan kunnen we dus het publiek uitnodigen om mee te doen.
152
00:06:34,300 --> 00:06:36,460
Want anders werd het, zoals het vaak gaat, anekdotisch.
153
00:06:36,460 --> 00:06:39,260
Rijdt iemand naar Zeeland, rijdt iemand naar Groningen en die zegt, nou, je valt dat op.
154
00:06:39,260 --> 00:06:41,300
We spreken met een paar biologen en wetenschappers.
155
00:06:41,300 --> 00:06:42,340
En dat wordt het stuk.
156
00:06:42,880 --> 00:06:48,180
Nu konden ze een jaar lang allerlei kaarten maken en die klimaatverandering in Nederland dus echt letterlijk in kaart brengen.
157
00:06:48,180 --> 00:06:52,020
En dus van meer dan 8000 datapunten, zou je kunnen zeggen, mensen.
158
00:06:52,020 --> 00:06:56,100
En dat vind ik altijd het mooie van het toepassen van machine learning.
159
00:06:56,100 --> 00:06:57,240
Dit is eigenlijk de oude variant.
160
00:06:57,240 --> 00:07:04,340
Als je weet wat je met de technologie kan, dan gaan er ook conceptuele luikjes in je brein open.
161
00:07:04,340 --> 00:07:05,620
Dan kun je nieuwe dingen verzinnen.
162
00:07:05,620 --> 00:07:10,300
Dus ik vind altijd het argument van je wordt sneller en kun je drie items monteren, straks zes.
163
00:07:10,800 --> 00:07:15,200
Wie is daarmee geholpen? De kijker misschien niet, want die krijgt meer informatie over zich heen.
164
00:07:15,200 --> 00:07:18,280
De journalist doet hetzelfde, maar dan een paar keer extra.
165
00:07:18,280 --> 00:07:24,080
Maar als je nieuwe dingen kunt doen en bijvoorbeeld vooral publiek betrekken, dat is in de journalistiek nu heel belangrijk.
166
00:07:24,080 --> 00:07:26,960
Ja, dan vind ik deze technologie heel interessant worden.
167
00:07:26,960 --> 00:07:29,480
Ja, dat is wel mooi. Ik heb eigenlijk ook wel een voorbeeld.
168
00:07:29,480 --> 00:07:34,480
Want ik had een student en die had ook onderzoek gedaan in die hele grote...
169
00:07:34,480 --> 00:07:37,400
Het ging over onderzoeksjournalistiek.
170
00:07:37,400 --> 00:07:39,840
Je had natuurlijk de Panama Papers bijvoorbeeld.
171
00:07:40,600 --> 00:07:46,400
En dan had je het over, weet ik veel, 10.000, 100.000 documenten.
172
00:07:46,400 --> 00:07:51,660
Om die aan elkaar te linken voor de onderzoeksjournalisten van bijvoorbeeld Follow the Money.
173
00:07:51,660 --> 00:07:57,460
Dat ze weten van, dit setje van documenten hoort bij elkaar en dat gaat dan over zo'n schimmig bedrijf hier.
174
00:07:57,460 --> 00:07:57,980
Precies.
175
00:07:58,380 --> 00:08:03,120
Waardoor zij beter eigenlijk de materie weer in konden duiken of dat konden verdelen.
176
00:08:03,120 --> 00:08:03,480
Ja.
177
00:08:03,480 --> 00:08:07,460
Ja, daar zag je de eerste voorbeelden van.
178
00:08:07,460 --> 00:08:09,660
Dus dat is ook weer vaak entiteitsherkenning.
179
00:08:09,660 --> 00:08:11,100
Dus hij scant teksten.
180
00:08:11,100 --> 00:08:13,220
Je kunt zeggen van, zij kan clusteren.
181
00:08:13,220 --> 00:08:14,340
Deze documenten horen bij elkaar.
182
00:08:14,340 --> 00:08:16,420
Daar zitten steeds dezelfde bedrijven, dezelfde naam in.
183
00:08:16,420 --> 00:08:17,860
Of het gaat over hetzelfde project.
184
00:08:18,560 --> 00:08:21,120
Maar ook, bijvoorbeeld, al die papers heten met een P.
185
00:08:21,120 --> 00:08:23,220
Je had de Paradise, de Panama en wat meer.
186
00:08:23,220 --> 00:08:24,800
Deze ook expres, geloof ik.
187
00:08:24,800 --> 00:08:28,040
Maar volgens mij in een van die papers kwam Wopke Hoekstra ook voor, geloof ik.
188
00:08:28,040 --> 00:08:30,660
Die had ook echt geld op de Kaaiman-eilanden, een investering.
189
00:08:31,160 --> 00:08:34,799
Maar het interessante is, als je dus zo'n WOO-verzoek, zo'n wet openbaarheid overheid,
190
00:08:34,799 --> 00:08:39,299
als je die documenten krijgt, dan krijg je tienduizenden PDF's en Excel-sheets en mail.
191
00:08:39,299 --> 00:08:39,740
Succes.
192
00:08:39,740 --> 00:08:40,620
Hox en zo.
193
00:08:40,620 --> 00:08:41,360
Succes.
194
00:08:41,360 --> 00:08:42,580
En waar begin je?
195
00:08:42,580 --> 00:08:44,460
En dat hebben ze heus wel uitgedacht, die onderzoeksjournalisten.
196
00:08:44,460 --> 00:08:45,220
Doen ze vaak samen.
197
00:08:45,220 --> 00:08:47,460
Dus ze doen dat al heel methodisch.
198
00:08:47,460 --> 00:08:51,480
Maar het is natuurlijk wel fijn als je al heel gericht bijvoorbeeld op Nederlandse bewindspersonen kunt zoeken.
199
00:08:51,480 --> 00:08:53,320
Of Nederlandse celebrities of voetballers.
200
00:08:53,320 --> 00:08:54,520
Volgens mij zat Messi er ook bij.
201
00:08:54,520 --> 00:08:58,620
Maar die komen dan, als je zo'n tool van Google heeft, een tool heet Pinpoint.
202
00:08:58,620 --> 00:09:02,020
Die haalt automatisch al die entiteiten naar boven.
203
00:09:02,020 --> 00:09:06,800
Dus ze zien al, ik zeg dat altijd tegen journalisten, eigenlijk iedereen die een Wikipedia-pagina heeft,
204
00:09:06,800 --> 00:09:07,660
die herkent hij eigenlijk.
205
00:09:07,660 --> 00:09:08,840
Daar kijkt hij ook naar.
206
00:09:08,840 --> 00:09:11,280
En ja, zij vinden dat heel fijn.
207
00:09:11,280 --> 00:09:14,960
Ik had dat laatst ook bij een onderzoeksjournalist die freelance is.
208
00:09:14,960 --> 00:09:19,620
Die zei, ik heb toegang bij het Openbaar Ministerie tot allerlei soort van dagvaardingen.
209
00:09:19,620 --> 00:09:25,160
En dan zoek ik naar bepaalde, bijvoorbeeld of een predikant of dominees, daar schrijft zij vaak over,
210
00:09:25,160 --> 00:09:27,740
of die bijvoorbeeld voorkomen in een van die PDF's.
211
00:09:28,060 --> 00:09:30,660
Maar de ene keer staat er een evangelische gemeente van dit en soms dominee,
212
00:09:30,660 --> 00:09:34,180
maar om dan op 600 PDF's iedere week de Ctrl-F te doen.
213
00:09:34,180 --> 00:09:35,820
Dat is een beetje lastig.
214
00:09:35,820 --> 00:09:37,820
Dan zou ik daar geen model op kunnen trainen.
215
00:09:37,820 --> 00:09:39,180
En dus hebben we het met over gehad.
216
00:09:39,180 --> 00:09:41,880
En nu gebruikt ze bijvoorbeeld een aantal van die filteringstools.
217
00:09:41,880 --> 00:09:45,140
Maar toen zei ze, ik ga nu van zes uur naar een half uur tijd.
218
00:09:45,140 --> 00:09:48,640
En dan kan ik veel beter richten op welk verhaal waar ik verder achteraan moet.
219
00:09:48,640 --> 00:09:50,540
Dus natuurlijk wint het de tijd,
220
00:09:50,540 --> 00:09:55,440
maar het heeft voor haar veel meer impact dat ze originele stukken kan schrijven.
221
00:09:55,440 --> 00:09:55,700
Ja.
222
00:09:55,700 --> 00:09:58,400
En tijd heeft voor de diepgang die ze wil opzoeken.
223
00:09:58,400 --> 00:09:58,400
Precies.
224
00:09:58,400 --> 00:10:02,040
En dan heeft ze meer tijd om dingen uit te zoeken, om mensen op te bellen, om ergens naartoe te gaan.
225
00:10:02,040 --> 00:10:04,660
Zou je kunnen zeggen dat het gaat over nauwkeurigheid?
226
00:10:04,660 --> 00:10:12,040
Dat is omdat je misschien beter de informatie vindt, dat je een beter totaalbeeld krijgt?
227
00:10:12,880 --> 00:10:15,100
Ja, dat heeft wel misschien met nauwkeurigheid te maken.
228
00:10:15,100 --> 00:10:20,100
Een ander voorbeeld is, vond ik ook leuk, van een journalist die schrijft voor Kijk.
229
00:10:20,100 --> 00:10:20,780
Ja.
230
00:10:20,780 --> 00:10:27,560
En dan schrijft hij vaak over wetenschappelijk onderzoek bijvoorbeeld naar planeten, sterrenkunde.
231
00:10:27,560 --> 00:10:28,840
Een beetje in die hoek.
232
00:10:28,840 --> 00:10:32,340
En die zei, ik zoek dan naar tot de verbeelding sprekende papers.
233
00:10:32,340 --> 00:10:37,200
En dan komen er iedere week ook honden uit op van die arxiv servers.
234
00:10:37,200 --> 00:10:39,140
En zei, ja, die kan ik niet allemaal doorlezen.
235
00:10:39,140 --> 00:10:41,080
En over nauwkeurigheid gesproken.
236
00:10:41,160 --> 00:10:42,100
Dus nu heeft hij een model getraind.
237
00:10:42,100 --> 00:10:44,120
Hij heeft al heel veel artikelen geschreven.
238
00:10:44,120 --> 00:10:45,800
Dus hij kent de papers die tot de verbeelding spreken.
239
00:10:45,800 --> 00:10:47,100
Nou, die heeft hij als voorbeeld gegeven.
240
00:10:47,100 --> 00:10:51,120
En hij zegt, nou, kun je hier een soort model van maken tegen een machine learning omgeving?
241
00:10:51,120 --> 00:10:54,820
En die dan voor elke paper kijkt, spreekt hij tot de verbeelding?
242
00:10:54,820 --> 00:10:55,460
Ja of nee?
243
00:10:55,460 --> 00:10:56,060
Oh, wat goed.
244
00:10:56,060 --> 00:10:59,000
En dan is het leuk, want dan heb je dat precision and recall.
245
00:10:59,000 --> 00:11:01,960
We moeten het Nederlands houden, want dat is ook alweer de...
246
00:11:01,960 --> 00:11:04,160
Oeh, dat is een hele lastige.
247
00:11:04,160 --> 00:11:06,180
Maar misschien kan je de term even gewoon uitleggen.
248
00:11:06,180 --> 00:11:08,780
Ja, dan moet ik het goed uitleggen.
249
00:11:08,780 --> 00:11:11,040
Want precisie is dat wat je terugkrijgt klopt.
250
00:11:11,040 --> 00:11:12,280
Bij criteria.
251
00:11:12,280 --> 00:11:16,540
Volgens mij komt dit al uit de information retrieval informatie.
252
00:11:16,540 --> 00:11:17,860
Ja, de zoekalgoritme.
253
00:11:17,860 --> 00:11:18,580
De zoekalgoritme.
254
00:11:18,580 --> 00:11:21,020
Dus precisie is dat wat je terugkrijgt klopt.
255
00:11:21,020 --> 00:11:22,600
En recall is, ik wil gewoon veel terug.
256
00:11:22,600 --> 00:11:23,860
Ik wil meer een sleepnet.
257
00:11:23,860 --> 00:11:25,540
Dus dan weet ik ook dat wat erin zit klopt.
258
00:11:25,540 --> 00:11:26,700
Maar er zit ook heel veel bijvangst.
259
00:11:26,700 --> 00:11:28,900
Volgens mij is dat recall.
260
00:11:28,900 --> 00:11:31,240
Dus hoeveel weet hij te herkennen van het totaal.
261
00:11:31,240 --> 00:11:32,520
Van het totaal, ja, precies.
262
00:11:32,760 --> 00:11:33,220
Wat er is.
263
00:11:33,220 --> 00:11:38,440
Ja, dus als er tien artikelen te vinden zijn over dat onderwerp wat je hebt, wil je ze eigenlijk alle tien.
264
00:11:38,440 --> 00:11:42,060
Ja, en als hij er ook precies tien geeft en ze zijn allemaal goed, dan is het honderd honderd.
265
00:11:42,060 --> 00:11:44,120
Ja, als hij er twintig geeft, maar die tien zitten er tussen.
266
00:11:44,120 --> 00:11:47,600
Dus dan is de recall goed, maar dat is precisie niet.
267
00:11:47,600 --> 00:11:47,940
Precies.
268
00:11:47,940 --> 00:11:48,380
Ja.
269
00:11:49,040 --> 00:11:53,380
En hij zei van, ja, er komen zoveel papers op die server, die kan ik nooit allemaal lezen.
270
00:11:53,380 --> 00:11:54,480
Dus ik mis ze sowieso.
271
00:11:54,480 --> 00:11:57,260
Dus als hij er eentje voor me vindt, dan heb ik al winst.
272
00:11:57,260 --> 00:11:58,120
Ja, geweldig.
273
00:11:58,120 --> 00:11:59,380
En dat lukt nu vrij aardig.
274
00:11:59,380 --> 00:12:00,840
Er zit dus ook wel wat bijvangst bij.
275
00:12:00,840 --> 00:12:02,940
Maar hij zei, ja, ik wist toch al dat ik ze zou missen.
276
00:12:02,940 --> 00:12:04,720
Dus oké, dat helpt hem filteren.
277
00:12:04,720 --> 00:12:06,820
Dus om nauwkeuriger te zijn, welke papers moet ik lezen?
278
00:12:06,820 --> 00:12:09,440
Maar ook weer, ik ben origineler.
279
00:12:09,440 --> 00:12:13,680
Want anders heeft bijvoorbeeld het Academische Instituut, wat een grote PR-machine heeft.
280
00:12:13,680 --> 00:12:17,280
Dat kan heel makkelijk een onderzoek pushen.
281
00:12:17,280 --> 00:12:18,700
Wat misschien niet het interessantste is.
282
00:12:18,780 --> 00:12:22,280
Maar nu zit er geen filter tussen van een autoriteit of mens.
283
00:12:22,280 --> 00:12:26,080
En bepaalt mijn model of het voor mij tot de verbeelding spreekt.
284
00:12:26,080 --> 00:12:30,020
Dus in die zin kan hij nauwkeuriger aangeven welk onderzoek hij interessant vindt.
285
00:12:30,020 --> 00:12:31,700
Dan dat bijvoorbeeld een andere entiteit het doet.
286
00:12:31,700 --> 00:12:35,220
Een academisch orgaan, een overheid, een bedrijf.
287
00:12:35,220 --> 00:12:38,700
Dus ik hoop dat dat jouw vraag van hand over nauwkeurigheid.
288
00:12:38,700 --> 00:12:41,700
Je kunt hem ook zelf dan bepalen inderdaad.
289
00:12:41,700 --> 00:12:42,920
Ja, mooi.
290
00:12:42,920 --> 00:12:45,480
Ik ben wel nieuwsgierig vanuit de journalistieke kant.
291
00:12:45,480 --> 00:12:48,760
Ik heb even wat artikelen van je ook teruggekeken over datajournalism.
292
00:12:48,760 --> 00:12:49,600
En fact-checking.
293
00:12:49,600 --> 00:12:51,680
Maar de hoeveelheid data neemt enorm toe.
294
00:12:51,680 --> 00:12:56,220
Nu eigenlijk alle voorbeelden hebben we al van hoe ga je nou daar het kaf van het koren scheiden.
295
00:12:56,220 --> 00:12:57,000
Wat interessant is.
296
00:12:57,000 --> 00:13:00,140
Hoe zou AI kunnen helpen voor die fact-checking?
297
00:13:00,880 --> 00:13:05,340
Ik heb daar vorige week toevallig een workshop over gegeven.
298
00:13:05,800 --> 00:13:13,920
Hoe het werkt, ook uit de wetenschap, dat is vaak zo als het gaat om feiten verdraaien en misinformatie.
299
00:13:13,920 --> 00:13:17,000
Wat één iemand in de wereld fake news heeft genoemd ooit.
300
00:13:17,000 --> 00:13:19,920
Dat is een onhandige term om te gebruiken.
301
00:13:19,920 --> 00:13:22,820
Maar het gaat vaak over misinformatie.
302
00:13:22,820 --> 00:13:28,540
Dat is dan voor de definitie informatie die iemand verspreidt die niet weet dat het niet klopt, maar denkt dat het waar is.
303
00:13:28,540 --> 00:13:29,660
Dus dat is misinformatie.
304
00:13:29,980 --> 00:13:31,460
Dan is de intentie op zich oké.
305
00:13:31,460 --> 00:13:33,500
En dan heb je nog desinformatie.
306
00:13:33,500 --> 00:13:35,920
Dan weet je dat het niet klopt en dan heb je er dus iets mee te winnen.
307
00:13:35,920 --> 00:13:38,300
Ze hebben zelfs een term die heet malinformatie.
308
00:13:38,300 --> 00:13:41,500
Dan verspreid je het om echt iemand willens en wetens pijn te doen.
309
00:13:41,900 --> 00:13:46,560
En bij desinformatie hoeft het niet pijn te doen, maar kan het jou bijvoorbeeld geld opleveren of politiek gewin.
310
00:13:46,560 --> 00:13:49,460
Die voorbeelden kennen we ondertussen te over, helaas.
311
00:13:49,460 --> 00:13:58,120
Het factchecking is dan, er zijn tools die bestaan al een aantal jaar, die helpen je om een uitspraak,
312
00:13:58,120 --> 00:14:00,280
bijvoorbeeld teksten, die heet Factrank.
313
00:14:00,280 --> 00:14:03,700
Wat die doet is, die kan bijvoorbeeld radio uitzendingen waarin politici te gast zijn,
314
00:14:03,700 --> 00:14:09,560
vergaderingen in de Tweede Kamer, die worden vaak getranscribeerd door AI al.
315
00:14:09,560 --> 00:14:10,640
Dat is de oude variant.
316
00:14:10,900 --> 00:14:14,380
En dan kan deze Factrank zeggen, hier doet iemand een uitspraak,
317
00:14:14,380 --> 00:14:19,100
die zegt bijvoorbeeld, er zijn zoveel Chinese auto's geïmporteerd in 2023 naar Nederland.
318
00:14:19,100 --> 00:14:19,760
Noem maar wat.
319
00:14:19,760 --> 00:14:23,680
Dan zegt Factrank, dit is een statement wat je kunt checken.
320
00:14:23,680 --> 00:14:27,960
Hier doet iemand een claim, dus hij herkent claims, maar hij gaat dat nog niet automatisch voor je doen.
321
00:14:27,960 --> 00:14:28,360
Oh, zo ja.
322
00:14:28,360 --> 00:14:34,240
Want, dat blijkt dus weer heel ingewikkeld, want wanneer is een claim de moeite waard om gefactcheckt te worden?
323
00:14:34,240 --> 00:14:40,420
En je kunt je voorstellen, als het een debat is tussen twee presidentskandidaten of de laatste avond voor de Tweede Kamerverkiezingen,
324
00:14:40,520 --> 00:14:42,280
dan zijn heel veel statements de moeite waard.
325
00:14:42,280 --> 00:14:47,020
En dan is het natuurlijk heel handig om, dan heb je die factrank misschien min hard nodig,
326
00:14:47,020 --> 00:14:49,100
want dan zitten die journalisten wel op statements te letten.
327
00:14:49,100 --> 00:14:52,820
En er zijn nu wel tools die dat zeggen dat kunnen doen.
328
00:14:54,060 --> 00:15:01,360
Google heeft al zijn tool, die heet ook geloof ik Factcheck, Factcheck Explore, dan kun je kijken, deze uitspraken zijn die al gecheckt door anderen,
329
00:15:01,360 --> 00:15:03,180
dus meer een soort database waar je hem tegen aanhoudt.
330
00:15:03,180 --> 00:15:07,500
Nou, dat is nu gekoppeld door een partij die heet GPT Zero, sommige mensen kennen die,
331
00:15:07,500 --> 00:15:11,900
want die zegt te kunnen vertellen of een tekst met AI is geschreven of niet.
332
00:15:11,900 --> 00:15:16,220
En dat is een hele moeilijke, want dat is echt een kat en muisspel, want daar worden mensen weer heel handig in.
333
00:15:16,640 --> 00:15:19,300
Ja, en die heeft een behoorlijke foutmarge.
334
00:15:19,300 --> 00:15:19,680
Precies.
335
00:15:19,680 --> 00:15:24,780
Die GPT Zero, die wordt ook wel gebruikt in het onderwijs.
336
00:15:24,780 --> 00:15:26,760
En daar heb je dan...
337
00:15:26,760 --> 00:15:31,140
Ja, en het is heel vervelend als er gezegd wordt van het is door AI geschreven,
338
00:15:31,140 --> 00:15:35,300
terwijl studenten hard aan gewerkt heeft en valselijk beschuldigd wordt.
339
00:15:35,300 --> 00:15:39,900
Ja, en volgens mij zijn er voorbeelden van, zeker in Amerika ook weer, dat dan de student zich moest verdedigen,
340
00:15:39,900 --> 00:15:41,560
terwijl hij zei, ja, nee, ik heb het gewoon...
341
00:15:41,560 --> 00:15:42,540
Omgekeerde bewijslast.
342
00:15:42,540 --> 00:15:44,540
Ja, dus dat is niet heel ver natuurlijk.
343
00:15:44,540 --> 00:15:46,900
Maar over die factchecks nog wat wel aardig is,
344
00:15:46,900 --> 00:15:53,320
is je hebt dus zo'n Factcheck Explore, dan kan je die eerder gedane uitspraak al checken of iemand het al gefactcheckt heeft,
345
00:15:53,320 --> 00:15:55,800
dus dan kan je hem valideren met wat bekend is.
346
00:15:56,620 --> 00:15:59,180
Die GPT Zero, die zegt dat ze dat nu kunnen automatiseren,
347
00:15:59,180 --> 00:16:02,140
dus dan doet iemand een claim en dan gaat hij al kijken of dat...
348
00:16:02,140 --> 00:16:04,420
Misschien zelfs met datasets, dat kun je je voorstellen,
349
00:16:04,420 --> 00:16:06,700
CBS, ANP, noem maar op.
350
00:16:06,700 --> 00:16:07,060
Precies.
351
00:16:07,060 --> 00:16:10,640
Maar wat ook altijd handig is, dat kwam in die workshop ook naar voren,
352
00:16:10,640 --> 00:16:13,820
je kunt het altijd met technologie checken, die zijn nooit waterdicht.
353
00:16:13,820 --> 00:16:16,460
Maar er is zo'n mooie uitspraak geweest,
354
00:16:16,460 --> 00:16:18,660
you cannot fix society with technology.
355
00:16:18,660 --> 00:16:21,920
Dus je kunt de maatschappij niet fixen als het kapot is met technologie alleen.
356
00:16:21,920 --> 00:16:25,240
Dus we hebben ook een mindset nodig en dat is nu met AI ook weer aan de hand.
357
00:16:25,920 --> 00:16:29,100
En een van die dingen is dan altijd, dat zeggen factcheckers ook altijd,
358
00:16:29,100 --> 00:16:31,100
wat is de intentie?
359
00:16:31,100 --> 00:16:33,220
Wie zou hier belang bij hebben?
360
00:16:33,220 --> 00:16:35,680
Dus als jij denkt, dit verhaal is te goed om waar te zijn,
361
00:16:35,680 --> 00:16:37,800
dan is het vaak ook zo dat die intuïtie werkt dan.
362
00:16:37,800 --> 00:16:40,700
Maar het gaat er meer om, er wordt een bericht verspreid,
363
00:16:40,700 --> 00:16:42,700
hier heeft iemand, ondervindt iemand hinder van.
364
00:16:42,700 --> 00:16:44,540
En iemand zal er waarschijnlijk baat bij hebben.
365
00:16:45,480 --> 00:16:47,300
Wie zou dat kunnen zijn?
366
00:16:47,300 --> 00:16:51,500
En waarom zou dat op deze manier verspreid worden?
367
00:16:51,500 --> 00:16:54,200
En dat helpt je vaak om te zoeken waar iets vandaan komt.
368
00:16:54,200 --> 00:16:55,380
Nou, dat is een manier.
369
00:16:55,380 --> 00:16:57,960
En er is nog een andere manier, dat is dat pre-bunking.
370
00:16:57,960 --> 00:17:00,980
En dat, dus debunk is het Engelse woord voor,
371
00:17:00,980 --> 00:17:02,240
we vertellen je dat het niet klopt.
372
00:17:02,240 --> 00:17:04,099
En iemand zegt dit, maar dat is helemaal niet waar.
373
00:17:04,099 --> 00:17:06,400
Maar pre-bunking, dat doe je dus vooraf.
374
00:17:06,520 --> 00:17:09,220
En dan zeg je, er komen verkiezingen,
375
00:17:09,220 --> 00:17:12,380
of iemand komt hier met een campagne aan,
376
00:17:12,380 --> 00:17:13,980
en die gaat waarschijnlijk dit beweren.
377
00:17:13,980 --> 00:17:16,640
Rondom lentekriebels, en dat was dat in Nederland.
378
00:17:16,640 --> 00:17:19,520
En nu bijvoorbeeld, nou laatst dat Trump,
379
00:17:19,520 --> 00:17:25,960
dat hij dan bijvoorbeeld het propagandaverhaal van Poetin zou napapagaien.
380
00:17:25,960 --> 00:17:27,480
Daar zou je van kunnen zeggen,
381
00:17:27,480 --> 00:17:30,380
nou in het narratief van Poetin rondom Oekraïne,
382
00:17:30,380 --> 00:17:31,620
zegt hij altijd de volgende dingen.
383
00:17:31,620 --> 00:17:34,180
Trump heeft nu dit ding gezegd,
384
00:17:34,180 --> 00:17:36,500
van het is een, hij is niet verkozen, Zelensky.
385
00:17:36,500 --> 00:17:39,280
Wat niet klopt, want in de oorlogstijd mag je aanblijven.
386
00:17:39,280 --> 00:17:43,020
Maar dat is één van de elementen die in het verhaal van Poetin zitten.
387
00:17:43,020 --> 00:17:44,540
Dit zijn drie andere elementen.
388
00:17:44,540 --> 00:17:47,500
Daarmee help je je publiek om je vast voor te bereiden op.
389
00:17:47,500 --> 00:17:49,260
En dat heet dan pre-bunking.
390
00:17:49,260 --> 00:17:52,160
Dus je ontdoet zeg maar de kracht al voordat het gaat gebeuren.
391
00:17:52,160 --> 00:17:53,820
En het idee daarachter is,
392
00:17:53,820 --> 00:17:56,720
dan leer je mensen hoe dit soort tactieken werken.
393
00:17:56,720 --> 00:17:58,780
En het geeft een goed gevoel,
394
00:17:58,780 --> 00:18:00,020
want je hebt een soort voorkennis.
395
00:18:00,020 --> 00:18:00,380
Precies.
396
00:18:00,380 --> 00:18:02,520
Dus je wordt er ook wat, ja je voelt je er wat beter,
397
00:18:02,780 --> 00:18:05,480
je bent iets meer in, je hebt voorkennis.
398
00:18:05,480 --> 00:18:07,060
Dat is altijd een fijn gevoel, toch?
399
00:18:07,060 --> 00:18:08,140
Ja, nee zeker.
400
00:18:08,140 --> 00:18:09,520
Je kan iets aanzien komen.
401
00:18:09,520 --> 00:18:10,760
Ja, en dat bedoel ik.
402
00:18:10,760 --> 00:18:13,300
Ik denk nog altijd dat je instrumentarium nodig hebt.
403
00:18:13,300 --> 00:18:16,300
Dus dat je die fact check explore en fact rank en dat GPT-zero,
404
00:18:16,300 --> 00:18:17,900
dus die zou ik zeker ook gebruiken.
405
00:18:17,900 --> 00:18:21,360
En je hebt deep fake tools die scannen of pixels gemanipuleerd zijn.
406
00:18:21,360 --> 00:18:22,940
Die gebruiken er allemaal verschillende modellen voor.
407
00:18:23,300 --> 00:18:26,380
Of de lip- en de oogbewegingen wel natuurlijk genoeg zijn.
408
00:18:26,380 --> 00:18:29,260
Dus technisch heb je die gereedschapskist nodig,
409
00:18:29,260 --> 00:18:32,240
maar je hebt dus ook een tactiek nodig, of een strategie.
410
00:18:32,240 --> 00:18:36,560
En die combinatie, die helpt je wel om in ieder geval misinformatie,
411
00:18:36,560 --> 00:18:37,840
desinformatie en fact checking.
412
00:18:39,100 --> 00:18:41,740
En wordt het al veel gebruikt in de praktijk?
413
00:18:41,740 --> 00:18:43,260
Ja, zeker fact checkers.
414
00:18:43,260 --> 00:18:50,300
En volgens mij heeft iedereen zichzelf respecterende redactie van Nieuwsmede hebben fact checkers.
415
00:18:50,300 --> 00:18:50,640
Ja.
416
00:18:52,040 --> 00:18:54,560
En juist omdat je er zo vroeg bij was,
417
00:18:54,560 --> 00:18:56,480
heb je natuurlijk ook heel mooi kunnen zien, zeg maar,
418
00:18:56,480 --> 00:18:59,480
het verloop van de adoptie.
419
00:18:59,480 --> 00:19:03,940
Hoe zit dat in de journalistiek?
420
00:19:03,940 --> 00:19:08,060
Was het makkelijk, zeg maar, dat mensen deze technologie omarmen?
421
00:19:08,060 --> 00:19:10,880
Hoe kijk jij daarnaar?
422
00:19:10,880 --> 00:19:12,580
Ja, dat is wel een leuke vraag, Joop.
423
00:19:12,580 --> 00:19:17,580
Want het viel mij eigenlijk op dat de meeste journalisten wel nieuwsgierig waren.
424
00:19:17,580 --> 00:19:23,960
En dan, dat heeft Freek Staps, want ANP, die heeft dat heel mooi een keer genoemd.
425
00:19:23,960 --> 00:19:25,500
Behoedzaam experimenteren.
426
00:19:25,500 --> 00:19:27,720
Dat past de journalistiek ook goed, zeg maar.
427
00:19:27,720 --> 00:19:32,720
Ja, dat mensen wel nieuwsgierig waren, maar niet overenthousiast,
428
00:19:32,720 --> 00:19:35,500
maar ook niet te sceptisch van, dat ga ik niet gebruiken.
429
00:19:35,500 --> 00:19:39,300
Volgens mij hebben jullie met Charlotte Meidersma of wat,
430
00:19:39,300 --> 00:19:40,840
ja, ik hoef niet AI geletterd te zijn.
431
00:19:40,840 --> 00:19:41,780
Dat heeft geen journalist gezegd.
432
00:19:41,780 --> 00:19:44,500
Dit waait wel over, of zal mijn tijd wel duren.
433
00:19:44,500 --> 00:19:46,660
Nee, dat ben ik niet tegengekomen.
434
00:19:46,960 --> 00:19:53,200
Mijn soort van hypothese is dat het internet is te lang genegeerd destijds,
435
00:19:53,200 --> 00:19:56,000
toen het internet opkwam en hij zou nieuws van de smartphone lezen.
436
00:19:56,000 --> 00:19:59,780
Nou, daar zijn ze ondertussen wel van terug naar een koude kermis.
437
00:19:59,780 --> 00:20:02,260
Maar dat werd toen met bijvoorbeeld Facebook en social media,
438
00:20:02,260 --> 00:20:04,340
dacht ik, ja, we hebben eigenlijk dat internet te veel genegeerd.
439
00:20:04,340 --> 00:20:07,400
Dat heeft ons niet goed gedaan.
440
00:20:07,400 --> 00:20:09,760
Dus met social media zijn ze al ingegaan,
441
00:20:09,760 --> 00:20:11,420
hebben ze zich helemaal lekker laten omarmen,
442
00:20:11,420 --> 00:20:13,460
of ze hebben Mark Zuckerberg omarmd.
443
00:20:13,460 --> 00:20:16,040
En kwamen er toen achter, als hij iets aanpast,
444
00:20:16,180 --> 00:20:17,220
dan zijn wij weer de sjaak.
445
00:20:17,220 --> 00:20:19,440
Dus als hij zegt, jullie moeten video's maken, gaan we dat doen?
446
00:20:19,440 --> 00:20:21,880
Zegt hij daarna, we gaan geen nieuws meer in de feed zetten,
447
00:20:21,880 --> 00:20:22,860
want mensen hebben er geen zin in.
448
00:20:22,860 --> 00:20:25,220
Dan zijn we al dat verkeer kwijt, al dat traffic.
449
00:20:25,220 --> 00:20:28,640
Dus ik denk dat daar schade en schande,
450
00:20:28,640 --> 00:20:30,120
dus eerst negeren, dat was niet goed.
451
00:20:30,120 --> 00:20:31,380
Helemaal omarmen was ook niet goed.
452
00:20:31,380 --> 00:20:34,560
Denk je, oké, nu komt AI als een soort derde grote paradigma,
453
00:20:34,560 --> 00:20:37,120
verschuiving binnen de mediawereld.
454
00:20:37,420 --> 00:20:39,080
Hier moeten we maar eens gewoon goed naar gaan kijken.
455
00:20:39,080 --> 00:20:41,060
Dus ik zou, dat is mijn hypothees,
456
00:20:41,060 --> 00:20:42,460
de journalistiek is in die zin,
457
00:20:42,460 --> 00:20:44,320
en de mediawereld volwassenen geworden.
458
00:20:44,320 --> 00:20:46,580
Die heeft gewoon gekeken, nou, wat kunnen we gebruiken?
459
00:20:46,580 --> 00:20:47,800
Wat moeten we vooral niet doen?
460
00:20:47,800 --> 00:20:50,820
Ik zag dus heel snel, op heel veel redacties,
461
00:20:50,820 --> 00:20:52,840
ik ben in heel veel Nederlandse redacties geweest,
462
00:20:52,840 --> 00:20:54,500
maar ook in België,
463
00:20:54,500 --> 00:20:55,980
en in Amerika zag je het ook al wel,
464
00:20:55,980 --> 00:20:58,200
en nu heeft iedereen AI-guidelines,
465
00:20:58,200 --> 00:20:59,120
AI-richtlijnen,
466
00:20:59,120 --> 00:21:00,360
heeft eigenlijk elke redactie.
467
00:21:00,880 --> 00:21:01,940
Ik hoor daarbij wel vaak van,
468
00:21:01,940 --> 00:21:04,060
gewone redacteuren op de vloer,
469
00:21:04,060 --> 00:21:05,780
ja, ik weet dat we ze hebben,
470
00:21:05,780 --> 00:21:07,000
maar ik heb ze nog niet gelezen.
471
00:21:07,000 --> 00:21:09,060
Ja, dat is altijd lastig.
472
00:21:09,060 --> 00:21:10,440
Er staat eigenlijk altijd in,
473
00:21:10,440 --> 00:21:12,660
human in the loop,
474
00:21:12,660 --> 00:21:15,420
mens in het proces,
475
00:21:15,420 --> 00:21:18,020
die begint en die zet het in gang,
476
00:21:18,020 --> 00:21:19,300
en die controleert aan het eind,
477
00:21:19,300 --> 00:21:21,080
want de mens is altijd verantwoordelijk.
478
00:21:21,080 --> 00:21:22,080
Ik zei laatst nog,
479
00:21:22,080 --> 00:21:24,080
er heeft nog nooit een machine vastgezeten, volgens mij,
480
00:21:24,080 --> 00:21:26,400
of een boete gekregen, denk ik.
481
00:21:26,400 --> 00:21:29,420
Dus dat hebben ze allemaal in hun richtlijnen staan,
482
00:21:29,420 --> 00:21:31,240
van je bent zelf verantwoordelijk voor wat je,
483
00:21:31,240 --> 00:21:32,880
waarvoor je AI inzet,
484
00:21:32,880 --> 00:21:33,960
en sommige dingen mogen ook niet.
485
00:21:33,960 --> 00:21:34,680
Je ziet bij bijna,
486
00:21:34,680 --> 00:21:37,300
bijna alle nieuwsmedia wel zeggen,
487
00:21:37,300 --> 00:21:39,300
we willen geen teksten die bijvoorbeeld
488
00:21:39,300 --> 00:21:40,480
door een chatbot zijn geschreven,
489
00:21:40,480 --> 00:21:42,080
zonder tussenkomst van mensen,
490
00:21:42,080 --> 00:21:44,080
gepubliceerd hebben,
491
00:21:44,080 --> 00:21:44,700
dat mag niet.
492
00:21:44,700 --> 00:21:45,060
Nee.
493
00:21:45,060 --> 00:21:46,180
We willen geen beelden,
494
00:21:46,180 --> 00:21:47,560
geen fotorealistische beelden,
495
00:21:47,560 --> 00:21:49,020
die door AI zijn gemaakt,
496
00:21:49,020 --> 00:21:51,000
publiceren op onze websites of op papier,
497
00:21:51,000 --> 00:21:52,220
gebruiken we niet,
498
00:21:52,220 --> 00:21:54,520
tenzij het over die tool gaat,
499
00:21:54,520 --> 00:21:55,200
over die software.
500
00:21:55,200 --> 00:21:57,920
Maar dat is bijna overal no-go.
501
00:21:58,640 --> 00:22:00,060
Dus dat soort dingen zie je wel.
502
00:22:00,060 --> 00:22:01,820
En daar waren ze vrij snel mee om die richtlijn in.
503
00:22:02,020 --> 00:22:03,980
En ik merkte ook dat redacties daar,
504
00:22:03,980 --> 00:22:05,680
journalisten daar blij mee waren.
505
00:22:05,680 --> 00:22:05,900
Die zeiden,
506
00:22:05,900 --> 00:22:07,700
soms vind ik het misschien wel jammer
507
00:22:07,700 --> 00:22:08,780
dat de dingen niet mogen,
508
00:22:08,780 --> 00:22:10,160
maar het is in ieder geval duidelijker
509
00:22:10,160 --> 00:22:11,100
dan dat niemand weet
510
00:22:11,100 --> 00:22:13,800
hoe we dit nou gaan aanpakken of niet.
511
00:22:13,800 --> 00:22:14,540
Dat helpt gewoon, ja.
512
00:22:14,540 --> 00:22:16,800
En ik vind die volwassenheid wel heel erg mooi,
513
00:22:16,800 --> 00:22:19,440
want uiteindelijk moet je natuurlijk ook kijken
514
00:22:19,440 --> 00:22:20,640
naar de gulden middenweg, toch?
515
00:22:20,640 --> 00:22:21,020
Ik bedoel,
516
00:22:21,020 --> 00:22:24,000
de doemscenario's hebben we niks aan,
517
00:22:24,000 --> 00:22:25,900
en de piepverhalen hebben we ook niks aan.
518
00:22:26,340 --> 00:22:27,860
Je moet heel goed kijken wat past,
519
00:22:27,860 --> 00:22:28,440
wat helpt,
520
00:22:28,440 --> 00:22:29,900
en wat je wil.
521
00:22:29,900 --> 00:22:33,900
Ik vind het heel mooi dat er vooral waarden zijn vastgelegd, toch?
522
00:22:33,900 --> 00:22:35,220
Hier staan we voor.
523
00:22:35,220 --> 00:22:35,900
Ja,
524
00:22:35,900 --> 00:22:37,140
en wat mij ook opviel,
525
00:22:37,140 --> 00:22:39,160
en ook dat is weer meer mijn observatie,
526
00:22:39,160 --> 00:22:40,400
dus daar durf ik geen wezen,
527
00:22:40,520 --> 00:22:42,420
een beetje een echte lijn in,
528
00:22:42,420 --> 00:22:43,680
trend in te zien,
529
00:22:43,680 --> 00:22:46,480
is dat omroepen en redacties,
530
00:22:46,480 --> 00:22:48,460
die al heel duidelijk een soort signatuur hebben,
531
00:22:48,460 --> 00:22:51,640
vanuit een duidelijke beschreven overtuiging opereren,
532
00:22:51,640 --> 00:22:53,900
veel makkelijker die beslissingen kunnen nemen
533
00:22:53,900 --> 00:22:54,920
om het wel of niet te doen.
534
00:22:54,920 --> 00:22:56,040
Een daarvan was,
535
00:22:56,040 --> 00:22:58,980
was een tijdje terug op de VPRO,
536
00:22:58,980 --> 00:23:00,220
die hadden gezegd van,
537
00:23:00,220 --> 00:23:03,720
als we niet weten met welke data die systemen getraind zijn,
538
00:23:03,720 --> 00:23:05,180
dat ging dan vooral om generatieve AI,
539
00:23:05,180 --> 00:23:08,320
als we niet weten welke fouten die zoal genereert,
540
00:23:08,960 --> 00:23:10,980
als we niet weten of mensen zijn vergoed,
541
00:23:10,980 --> 00:23:12,740
wie data is gebruikt bijvoorbeeld,
542
00:23:12,740 --> 00:23:16,120
als we niet weten welke vooroordelen er standaard in zitten,
543
00:23:16,120 --> 00:23:17,960
als we dat allemaal niet goed weten,
544
00:23:17,960 --> 00:23:20,700
dan kunnen we de AI niet gebruiken bij de VPRO.
545
00:23:20,700 --> 00:23:21,640
En dat kwam er eigenlijk om in,
546
00:23:21,640 --> 00:23:24,820
dat je vrijwel niets van generatieve AI kunt gebruiken,
547
00:23:24,820 --> 00:23:25,980
tenzij het helemaal zelf bouwt,
548
00:23:25,980 --> 00:23:27,420
en dan nog is het heel lastig.
549
00:23:27,420 --> 00:23:29,500
Daar zijn ze ondertussen wel weer een beetje van terug,
550
00:23:29,500 --> 00:23:31,040
want dat is dus wel heel principieel,
551
00:23:31,040 --> 00:23:32,280
en dan sluit je heel rigide.
552
00:23:32,280 --> 00:23:33,440
Heel rigide inderdaad.
553
00:23:33,440 --> 00:23:34,960
Maar ik zag het bijvoorbeeld ook bij
554
00:23:34,960 --> 00:23:37,900
bij een Nederlands Dagblad of de EO,
555
00:23:37,900 --> 00:23:38,940
en die hebben bijvoorbeeld,
556
00:23:38,940 --> 00:23:40,460
dat bij de EO vond ik het aardige,
557
00:23:40,460 --> 00:23:41,520
daar zeiden ze van,
558
00:23:41,520 --> 00:23:43,440
we gaan er van uit,
559
00:23:43,440 --> 00:23:44,920
dat is nu ondertussen al best wel veranderd,
560
00:23:44,920 --> 00:23:45,840
maar dat Silicon Valley,
561
00:23:45,840 --> 00:23:47,180
heel erg zo'n libertarische,
562
00:23:47,180 --> 00:23:50,020
een beetje linkse ideologie,
563
00:23:50,020 --> 00:23:51,020
heeft een wereldvisie.
564
00:23:51,020 --> 00:23:53,860
Dat is niet per se de christelijke inhoud,
565
00:23:53,860 --> 00:23:55,640
als waarheid geldt.
566
00:23:55,640 --> 00:23:56,340
Dus bij ons,
567
00:23:56,340 --> 00:23:57,340
en ze zijn ook een publiek omhoog,
568
00:23:57,340 --> 00:23:58,640
bij ons mogen de taalmodellen,
569
00:23:58,640 --> 00:24:01,240
alle inhoud van de EO opzuigen,
570
00:24:01,240 --> 00:24:01,540
zeg maar,
571
00:24:01,540 --> 00:24:02,360
op schrapen.
572
00:24:02,360 --> 00:24:04,260
Dus laat die scrapers maar lekker binnen,
573
00:24:04,600 --> 00:24:06,420
want dan komt onze smaak,
574
00:24:06,420 --> 00:24:08,740
ons geluid komt wat meer in die taalmodellen terug.
575
00:24:08,740 --> 00:24:09,920
Dat was een idee.
576
00:24:09,920 --> 00:24:11,380
Ik weet niet of dat ondertussen nog zo is,
577
00:24:11,380 --> 00:24:13,900
maar die hadden daar een soort proactief beleid in.
578
00:24:13,900 --> 00:24:15,540
Dat is best wel tegenovergesteld,
579
00:24:15,540 --> 00:24:15,840
denk ik.
580
00:24:15,840 --> 00:24:16,800
Van andere uitgevers zeggen,
581
00:24:16,800 --> 00:24:17,100
nee,
582
00:24:17,100 --> 00:24:18,220
jullie betalen niet,
583
00:24:18,220 --> 00:24:19,280
jullie vragen geen toestemming.
584
00:24:19,280 --> 00:24:20,560
Zoals bijvoorbeeld de New York Times,
585
00:24:20,560 --> 00:24:21,420
die dan open en ja,
586
00:24:21,420 --> 00:24:24,260
het bedrijf achter ChatGPT aanklaagde,
587
00:24:24,260 --> 00:24:27,420
voor onrechtmatig gebruik.
588
00:24:27,520 --> 00:24:31,200
In Nederland is dat ook de houding van bijna alle nieuwsuitgevers.
589
00:24:31,200 --> 00:24:33,060
Dus dat was een interessante.
590
00:24:33,060 --> 00:24:34,200
Maar dat de EO zegt,
591
00:24:34,200 --> 00:24:35,280
nee, kom het maar,
592
00:24:35,280 --> 00:24:36,820
we komen het zelfs naar je toe brengen.
593
00:24:36,820 --> 00:24:37,280
Ja,
594
00:24:37,280 --> 00:24:38,180
zo ver ging het niet.
595
00:24:38,180 --> 00:24:40,760
Maar ik vond het aardig,
596
00:24:40,760 --> 00:24:42,360
omdat ze vanuit overtuiging,
597
00:24:42,360 --> 00:24:43,780
veel sneller ook weer misschien,
598
00:24:43,780 --> 00:24:45,020
en misschien ook dus beter,
599
00:24:45,020 --> 00:24:45,740
of nauwkeuriger,
600
00:24:45,740 --> 00:24:46,240
zoals jij zei,
601
00:24:46,240 --> 00:24:46,640
Joop,
602
00:24:46,640 --> 00:24:47,880
in staat waren,
603
00:24:47,880 --> 00:24:48,820
om te bepalen,
604
00:24:48,820 --> 00:24:49,920
dit doen we wel met AI,
605
00:24:49,920 --> 00:24:50,540
en dit niet.
606
00:24:50,540 --> 00:24:51,040
Nou,
607
00:24:51,040 --> 00:24:51,380
ik denk,
608
00:24:51,380 --> 00:24:51,740
weet je,
609
00:24:51,740 --> 00:24:54,160
als je voor jezelf heel helder hebt,
610
00:24:54,160 --> 00:24:55,460
wat je beleid is,
611
00:24:55,460 --> 00:24:56,320
wat je waardes is,
612
00:24:56,840 --> 00:24:58,720
dat het dan ook heel makkelijk is,
613
00:24:58,720 --> 00:24:59,960
om daar keuzes in te maken.
614
00:24:59,960 --> 00:25:02,060
En mooi inderdaad,
615
00:25:02,060 --> 00:25:03,320
dat het dus omgedraaid wordt,
616
00:25:03,320 --> 00:25:05,700
om evenwicht te krijgen in de dataset,
617
00:25:05,700 --> 00:25:07,720
dat de EO dus inderdaad de data gaat aanbieden,
618
00:25:07,720 --> 00:25:08,500
om te kijken,
619
00:25:08,500 --> 00:25:10,480
hoe krijg je die balans in de data,
620
00:25:10,480 --> 00:25:12,420
door het juist niet tegen te houden.
621
00:25:12,420 --> 00:25:15,280
Ik vond het wel een mooie omgekeerde blik erop.
622
00:25:15,280 --> 00:25:15,600
Ja,
623
00:25:15,600 --> 00:25:18,340
en of het in de praktijk ook zo werkt,
624
00:25:18,340 --> 00:25:20,240
dat durf ik steeds meer te betwijfelen.
625
00:25:20,240 --> 00:25:21,280
Want,
626
00:25:21,280 --> 00:25:22,480
ja,
627
00:25:22,480 --> 00:25:25,160
we weten nu dat taalmodellen zijn geen waarheidsmodellen,
628
00:25:25,160 --> 00:25:26,140
geen nieuwsmodellen,
629
00:25:26,140 --> 00:25:26,680
dus het zijn,
630
00:25:26,680 --> 00:25:28,560
zoals zo'n bekende paper,
631
00:25:28,560 --> 00:25:30,320
het zijn stochastische papagaaien.
632
00:25:30,320 --> 00:25:30,600
Ja.
633
00:25:30,600 --> 00:25:32,540
En ik moest stochastische ook opzoeken,
634
00:25:32,540 --> 00:25:33,380
toen ik dat voor het eerst had,
635
00:25:33,380 --> 00:25:34,860
maar dat heeft te maken met kansberekening,
636
00:25:34,860 --> 00:25:35,220
geloof ik.
637
00:25:35,320 --> 00:25:36,960
En dat is het berekenen gewoon de kans,
638
00:25:36,960 --> 00:25:37,620
als je vraagt,
639
00:25:37,620 --> 00:25:40,140
in mijn koffie heb ik,
640
00:25:40,140 --> 00:25:40,940
nou dan is het melk,
641
00:25:40,940 --> 00:25:41,280
suiker,
642
00:25:41,280 --> 00:25:42,840
dat is de grootste kans dat je dat bedoelt,
643
00:25:42,840 --> 00:25:44,240
maar niet wakeboard bijvoorbeeld,
644
00:25:44,240 --> 00:25:46,740
want dat zal bijna niemand ooit opgeschreven hebben.
645
00:25:46,740 --> 00:25:47,480
Dus,
646
00:25:47,480 --> 00:25:47,860
ja,
647
00:25:47,860 --> 00:25:49,820
die kans is gewoon heel klein,
648
00:25:49,820 --> 00:25:50,160
dat hij,
649
00:25:50,700 --> 00:25:53,800
als er relatief weinig christelijke content inzet,
650
00:25:53,800 --> 00:25:57,240
dan zal hij die toch altijd minder als kansrijk zien,
651
00:25:57,240 --> 00:25:58,560
als de juiste zin.
652
00:25:58,560 --> 00:25:59,060
Precies.
653
00:25:59,060 --> 00:25:59,960
Dus ik denk dat het,
654
00:25:59,960 --> 00:26:00,320
ja,
655
00:26:00,320 --> 00:26:01,880
water naar de zee dragen is in die zin.
656
00:26:01,880 --> 00:26:02,120
Ja.
657
00:26:02,120 --> 00:26:03,800
Maar,
658
00:26:03,800 --> 00:26:06,280
ik denk dan dat het toch het punt terug te pakken is van,
659
00:26:06,280 --> 00:26:08,820
weet als organisatie je kernwaarde,
660
00:26:08,820 --> 00:26:09,740
waarvoor je staat,
661
00:26:09,740 --> 00:26:10,860
en je principes,
662
00:26:10,860 --> 00:26:12,400
en misschien wel je ethische richtlijnen,
663
00:26:12,400 --> 00:26:14,520
want dat maakt het maken van keuzes en adoptie,
664
00:26:14,520 --> 00:26:15,220
dus makkelijker,
665
00:26:15,220 --> 00:26:16,700
als ik hem even van mezelf zo vertaal.
666
00:26:16,700 --> 00:26:17,280
Ja,
667
00:26:17,280 --> 00:26:18,100
dat denk ik wel.
668
00:26:18,100 --> 00:26:19,220
En dat is volgens mij,
669
00:26:19,220 --> 00:26:20,780
dat is ook wel weer fijn,
670
00:26:20,780 --> 00:26:21,580
want dat is altijd,
671
00:26:21,580 --> 00:26:22,640
hoe zal ik het zeggen,
672
00:26:22,640 --> 00:26:24,080
technologie agnostisch.
673
00:26:24,080 --> 00:26:26,120
Dus dat je als bedrijf weet,
674
00:26:26,120 --> 00:26:27,480
voor wie zijn we er,
675
00:26:27,480 --> 00:26:28,440
wat maken we,
676
00:26:28,480 --> 00:26:30,220
of je nou inderdaad verhalen brengt,
677
00:26:30,220 --> 00:26:31,520
over wat er in de wereld aan de hand is,
678
00:26:31,520 --> 00:26:33,360
of je verkoopt frisdrank,
679
00:26:33,360 --> 00:26:34,920
volgens mij maakt dat niet eens zoveel uit.
680
00:26:34,920 --> 00:26:36,860
Als je weet waartoe je op aarde bent,
681
00:26:36,860 --> 00:26:37,640
wie je publiek is,
682
00:26:37,640 --> 00:26:38,540
wat je wil bereiken,
683
00:26:38,540 --> 00:26:40,940
wat de kwaliteit is die je brengt,
684
00:26:40,940 --> 00:26:44,000
dan zijn keuzes maken voor bepaalde technologieën,
685
00:26:44,000 --> 00:26:44,740
hoe je toepast,
686
00:26:44,740 --> 00:26:46,180
is volgens mij dan ook eenvoudiger.
687
00:26:46,180 --> 00:26:46,880
Dat geloof ik wel.
688
00:26:46,880 --> 00:26:47,100
Ja.
689
00:26:47,100 --> 00:26:48,540
Ja,
690
00:26:48,540 --> 00:26:50,960
maar dat is niet voor ieder bedrijf,
691
00:26:50,960 --> 00:26:52,000
of organisatie,
692
00:26:52,000 --> 00:26:52,840
dat is heel logisch.
693
00:26:52,840 --> 00:26:55,880
Je hebt het boek van Simon Sinek.
694
00:26:57,500 --> 00:26:57,700
Oh ja,
695
00:26:57,700 --> 00:26:58,020
de what,
696
00:26:58,020 --> 00:26:58,300
how,
697
00:26:58,300 --> 00:26:58,820
why toch?
698
00:26:58,820 --> 00:26:59,160
Ja,
699
00:26:59,160 --> 00:26:59,820
precies.
700
00:26:59,820 --> 00:27:00,040
Why,
701
00:27:00,040 --> 00:27:00,220
how,
702
00:27:00,220 --> 00:27:00,420
what.
703
00:27:00,420 --> 00:27:00,760
Why,
704
00:27:00,760 --> 00:27:00,940
how,
705
00:27:00,940 --> 00:27:01,120
what.
706
00:27:01,120 --> 00:27:01,260
Ja.
707
00:27:01,260 --> 00:27:03,160
En dat gaat natuurlijk heel erg over,
708
00:27:03,160 --> 00:27:03,520
weet je,
709
00:27:03,520 --> 00:27:06,740
dat je heel duidelijk voor jezelf de waarom vragen hebt,
710
00:27:06,740 --> 00:27:08,540
wat je wil bereiken met je bedrijf.
711
00:27:08,540 --> 00:27:09,740
En als je dat maar helder hebt,
712
00:27:09,740 --> 00:27:11,920
dan zijn technologische keuzes makkelijker,
713
00:27:11,920 --> 00:27:13,580
ethische vraagstukken zijn makkelijker.
714
00:27:14,440 --> 00:27:15,600
Dus daar begint het eigenlijk.
715
00:27:15,600 --> 00:27:17,380
Volgens mij heeft hij ook het boek,
716
00:27:17,380 --> 00:27:18,720
het begint bij waarom.
717
00:27:18,720 --> 00:27:19,300
Ja.
718
00:27:19,300 --> 00:27:22,680
Ik sprak laatst een basisschooljuffrouw,
719
00:27:22,680 --> 00:27:24,200
die heeft les in groep 7-8.
720
00:27:24,200 --> 00:27:25,140
En die,
721
00:27:25,140 --> 00:27:26,620
dat vond ik heel interessant,
722
00:27:26,620 --> 00:27:29,000
die is dus met haar leerlingen,
723
00:27:29,000 --> 00:27:31,080
met chatbots aan het werk.
724
00:27:31,080 --> 00:27:31,620
En vooral,
725
00:27:31,620 --> 00:27:32,820
en haar uitgangspunt was,
726
00:27:32,820 --> 00:27:33,500
ja,
727
00:27:33,500 --> 00:27:35,280
deze kinderen komen in de maatschappij
728
00:27:35,280 --> 00:27:36,680
waarin AI toegepast zal worden.
729
00:27:36,680 --> 00:27:37,300
Dan kunnen ze toch,
730
00:27:37,300 --> 00:27:38,460
dit is een tool van nu,
731
00:27:38,460 --> 00:27:40,320
en ouders gebruiken dit waarschijnlijk,
732
00:27:40,320 --> 00:27:41,200
ook mensen in de omgeving.
733
00:27:41,680 --> 00:27:44,340
Misschien oudere broertjes of zusjes gebruiken het al in de middelbare school waarschijnlijk.
734
00:27:44,340 --> 00:27:46,000
Dus we moeten het hier over hebben.
735
00:27:46,000 --> 00:27:47,300
Niet om ze daar zeg maar,
736
00:27:47,300 --> 00:27:49,260
geletterd in te maken van,
737
00:27:49,260 --> 00:27:50,600
ga het overal maar voor inzetten.
738
00:27:50,600 --> 00:27:52,880
Maar meer om er gesprek over te hebben.
739
00:27:52,880 --> 00:27:54,020
Dus dat is haar doel.
740
00:27:54,020 --> 00:27:54,880
En wat ik aardig vond,
741
00:27:54,880 --> 00:27:57,960
is dat zij blijkbaar een goede IT hadden.
742
00:27:57,960 --> 00:28:00,100
Ze hebben daar een AI computer.
743
00:28:00,100 --> 00:28:02,660
En die is losgekoppeld van wifi,
744
00:28:02,660 --> 00:28:03,860
geloof ik, van internet.
745
00:28:03,860 --> 00:28:05,360
Dus dan gaat ook geen data,
746
00:28:05,360 --> 00:28:06,360
het klaslokaal uit,
747
00:28:06,360 --> 00:28:07,360
of van die computer af.
748
00:28:07,360 --> 00:28:08,480
Dus dat is een speciale computer,
749
00:28:08,480 --> 00:28:09,980
daar mogen ze dan om de beurt op intekenen.
750
00:28:09,980 --> 00:28:11,440
En dan krijgen ze wat opdrachtjes.
751
00:28:11,540 --> 00:28:13,080
En dan hebben ze nagesprek over met de klas.
752
00:28:13,080 --> 00:28:16,220
En volgens mij heeft hij dan een paar van die taalmodellen gedownload.
753
00:28:16,220 --> 00:28:17,400
Ja, lokaal draaien.
754
00:28:17,400 --> 00:28:19,160
Precies, lokaal draaien van Llama.
755
00:28:19,160 --> 00:28:20,300
En misschien zelfs DeepSeek,
756
00:28:20,300 --> 00:28:21,580
de Chinese versie.
757
00:28:21,580 --> 00:28:23,060
En dan heb je er nog een paar Mistral en zo.
758
00:28:23,060 --> 00:28:24,560
En dan dacht ik,
759
00:28:24,560 --> 00:28:25,820
dit is wel goed vooruitdenken.
760
00:28:25,820 --> 00:28:27,740
Dus we moeten ons aan de wet houden.
761
00:28:27,740 --> 00:28:28,940
Niet alleen de AI Act,
762
00:28:28,940 --> 00:28:29,680
maar ook AVG.
763
00:28:29,680 --> 00:28:31,140
Het gaat hier om kinderen.
764
00:28:31,140 --> 00:28:32,120
Dat moet je mee oppassen.
765
00:28:32,120 --> 00:28:33,160
Dus dan dacht ik,
766
00:28:33,160 --> 00:28:33,820
nou, dit vind ik,
767
00:28:33,820 --> 00:28:36,100
dit vooruitstrevend.
768
00:28:36,100 --> 00:28:37,140
Vooruitstrevend.
769
00:28:37,140 --> 00:28:37,440
Ja, zeker.
770
00:28:37,440 --> 00:28:37,820
Mooi.
771
00:28:38,020 --> 00:28:40,020
En zij had er wel weer wat observaties.
772
00:28:40,020 --> 00:28:41,860
En ik weet het weer niet of die gelden voor iedereen.
773
00:28:41,860 --> 00:28:42,480
En zij zei,
774
00:28:42,480 --> 00:28:44,100
ik zit in groep 7, 8.
775
00:28:44,100 --> 00:28:45,660
Dus kinderen gaan hier naar een middelbare school.
776
00:28:45,660 --> 00:28:48,380
Kinderen die een wat hoger schooladvies krijgen,
777
00:28:48,380 --> 00:28:49,580
viel haar op.
778
00:28:49,580 --> 00:28:51,640
Die zijn beter in specifieker prompten
779
00:28:51,640 --> 00:28:53,420
dan kinderen die met een lager schooladvies.
780
00:28:53,420 --> 00:28:54,560
Want kinderen met een lager schooladvies,
781
00:28:54,560 --> 00:28:55,180
zij zei bijvoorbeeld,
782
00:28:55,180 --> 00:28:55,780
die zeggen dan,
783
00:28:56,320 --> 00:28:57,880
geef me een recept voor eten.
784
00:28:57,880 --> 00:29:00,140
En dan kinderen die in een hoger school,
785
00:29:00,140 --> 00:29:00,480
die zeggen,
786
00:29:00,480 --> 00:29:02,180
ik wil graag iets met kip en rijst,
787
00:29:02,180 --> 00:29:03,200
maar geen Italiaans.
788
00:29:03,200 --> 00:29:03,580
Oh ja.
789
00:29:03,580 --> 00:29:06,220
En die krijgen dan al gerichtere antwoorden.
790
00:29:06,220 --> 00:29:06,560
Ze zei,
791
00:29:06,560 --> 00:29:08,900
dus daar zie je al het denken in.
792
00:29:08,900 --> 00:29:10,300
En als wij prompten belangrijk vinden,
793
00:29:10,300 --> 00:29:11,520
dan moeten we daar al het gesprek.
794
00:29:11,520 --> 00:29:14,460
En dan zit daar dus alweer een verschil.
795
00:29:14,460 --> 00:29:17,440
Ja, dat zijn ook eigenlijk communicatieve vaardigheden.
796
00:29:17,440 --> 00:29:18,000
Precies.
797
00:29:18,000 --> 00:29:20,900
Ja, dat is ook wel weer goed om het vanuit het kinderperspectief
798
00:29:20,900 --> 00:29:21,880
naar AI te kijken.
799
00:29:21,880 --> 00:29:23,000
Want dat doen we ook niet vaak.
800
00:29:23,000 --> 00:29:24,020
Ja, zeker.
801
00:29:24,020 --> 00:29:25,280
En het gesprek aan gaan,
802
00:29:25,460 --> 00:29:26,960
daar hebben we een thema voor in de podcast.
803
00:29:26,960 --> 00:29:28,220
Ja, heel mooi brugje.
804
00:29:28,220 --> 00:29:28,580
Ja, precies.
805
00:29:28,580 --> 00:29:32,040
Dus wij willen hier even een stelling uit ons kaartspel voorleggen.
806
00:29:32,040 --> 00:29:52,900
De categorie van de stelling is wetgeving en beleid.
807
00:29:52,900 --> 00:29:54,520
En de stelling luidt,
808
00:29:54,600 --> 00:30:00,320
strengere regulering is nodig om data misbruik door generatieve AI tegen te gaan.
809
00:30:00,320 --> 00:30:07,400
Strengere regulering is nodig om data misbruik door generatieve AI tegen te gaan.
810
00:30:07,400 --> 00:30:10,960
Daar ben ik het wel mee eens, denk ik ja.
811
00:30:11,120 --> 00:30:17,740
En dat komt ook vooral omdat we zitten nu in een geopolitieke situatie die heel erg om technologie draait.
812
00:30:17,740 --> 00:30:17,940
Ja.
813
00:30:17,940 --> 00:30:25,600
En waarbij Amerika en de Verenigde Staten hebben.
814
00:30:25,600 --> 00:30:26,220
veranderen van als je innovatie tegen.
815
00:30:26,220 --> 00:30:39,860
En dat is een heel mooi boek van Marietje Schaken.
816
00:30:39,860 --> 00:30:40,580
"De tech coup".
817
00:30:40,580 --> 00:30:45,620
Ik weet niet of ik was het aan het lezen toen Trump aan de macht net herkozen was.
818
00:30:45,620 --> 00:30:46,680
Echt een aanrader om te lezen.
819
00:30:46,680 --> 00:30:47,100
Echt een aanrader.
820
00:30:47,480 --> 00:30:49,580
En zij zegt bijvoorbeeld twee dingen.
821
00:30:49,580 --> 00:30:51,560
Eén, dat is niet waar.
822
00:30:51,560 --> 00:30:54,860
Als je innovatie reguleert, dan ga je het niet tegen.
823
00:30:54,860 --> 00:30:59,380
Want zij zegt, je hebt een genetisch gemodificeerde organisme tegenwoordig.
824
00:30:59,380 --> 00:31:00,520
Dus dat kan ook voedsel zijn.
825
00:31:00,520 --> 00:31:03,680
Is zwaar gereguleerd, want dat kan best gevaarlijk zijn als het misgaat.
826
00:31:04,140 --> 00:31:07,580
En in de geneeskunde gebruiken we dit in de voedselindustrie.
827
00:31:07,580 --> 00:31:12,180
Daar is regulering heel zwaar.
828
00:31:12,180 --> 00:31:15,760
En dat zijn onwijs innovatieve en concurrerende industrieën.
829
00:31:15,760 --> 00:31:18,520
Dus dan gaat dat argument gewoon niet op.
830
00:31:18,520 --> 00:31:21,760
En zij zei, iets anders wat belangrijk is, is het voorzorgbeginsel.
831
00:31:21,760 --> 00:31:24,100
En daar heb ik weinig mensen over gehoord.
832
00:31:24,100 --> 00:31:26,100
En dat was een eye openener uit dat boek van mij.
833
00:31:26,100 --> 00:31:32,760
En zij zei, ja, weer bij geneesmiddelen of genetisch gemanipuleerde organismen.
834
00:31:32,760 --> 00:31:37,500
Dan kijken we van, oké, als er één dingetje misgaat, één stap in het proces bijvoorbeeld,
835
00:31:37,500 --> 00:31:38,800
om dat te modificeren.
836
00:31:38,800 --> 00:31:41,500
Of als dit geneesmiddel door deze mensen gebruikt gaat worden,
837
00:31:41,500 --> 00:31:44,840
zou dat dan een gevaar voor de hele volksgezondheid zijn?
838
00:31:44,840 --> 00:31:46,140
En dan zeggen, dat weten we niet.
839
00:31:46,140 --> 00:31:47,220
Dan mag het niet op de markt.
840
00:31:47,220 --> 00:31:49,260
Als het een groot gevaar is, dan waarschijnlijk ook niet.
841
00:31:49,260 --> 00:31:53,400
En als het een heel klein gevaar is, dan kunnen we dat in de buis sluiten en training oplossen.
842
00:31:53,400 --> 00:31:56,660
Dan hebben we een voorzorgsprincipe, voorzorgbeginsel.
843
00:31:56,660 --> 00:32:01,140
En ik denk dat dat voor AI, zeker generatieve AI, heel goed geweest zou zijn.
844
00:32:01,300 --> 00:32:03,200
En we zijn dan natuurlijk rijkelijk laat mee.
845
00:32:04,140 --> 00:32:06,180
Dus ja, mooie vraag van de kaart.
846
00:32:06,180 --> 00:32:08,680
Ik ben daarvoor, omdat het dus innovatie niet tegen gaat.
847
00:32:08,680 --> 00:32:13,060
En twee, ik denk dat het goed is als sommige systemen niet per se al op de markt zijn.
848
00:32:13,060 --> 00:32:17,300
Omdat we weten dat die taalmodellen voor van alles ingezet worden, waarvoor ze niet bedoeld zijn.
849
00:32:17,480 --> 00:32:25,240
En die paper die ik eerder aanhaalde, die stochastische papagaaien, die zeiden al, dat waren Googlers die bij de afdeling AI en etiek werkten.
850
00:32:25,240 --> 00:32:29,780
Die schreven al in, nou wat zal het geweest zijn, 2021 of 2019 die paper.
851
00:32:29,780 --> 00:32:35,140
En zeiden die taalmodellen kun je niet voor het grote publiek toegankelijk maken.
852
00:32:35,140 --> 00:32:36,300
Want er zitten te veel vooroordelen.
853
00:32:36,300 --> 00:32:38,680
Ze hallucineren, maar wat is er zijn, papegaais.
854
00:32:39,100 --> 00:32:42,940
Klopt niet wat ze zeggen, maar het lijkt als zin wel te kloppen, wel plausibel.
855
00:32:42,940 --> 00:32:45,700
Maar je kunt het eigenlijk niet gewoon inzetten voor van alles.
856
00:32:45,700 --> 00:32:47,820
Dit is voor een research doel aan de superinteressant.
857
00:32:47,820 --> 00:32:50,580
Maar niet om aan het publiek te geven, ga het maar gebruiken.
858
00:32:50,580 --> 00:32:52,840
En wat gebeurt er in november 2022?
859
00:32:52,840 --> 00:32:55,920
ChatGPT zegt, hier, ga maar eens chatten met onze bot.
860
00:32:55,920 --> 00:33:00,760
Nou ja, dus daarom denk ik, nee, volgens mij is die regulering goed.
861
00:33:00,760 --> 00:33:01,900
Duidelijk.
862
00:33:01,900 --> 00:33:02,800
Ja, duidelijk.
863
00:33:03,740 --> 00:33:07,480
Ik neem aan dat je zelf in je werkzaamheden ook AI gebruikt.
864
00:33:07,480 --> 00:33:10,820
Waar heb je de afweging gemaakt die zegt van, ja, maar hier doe ik het niet.
865
00:33:10,820 --> 00:33:13,200
Misschien een aparte vraag voor een AI-podcast.
866
00:33:13,200 --> 00:33:18,000
Maar we zijn altijd wel een beetje op zoek naar de grens van wanneer wel, wanneer niet.
867
00:33:18,000 --> 00:33:19,240
Nou, dat is wel interessant.
868
00:33:19,240 --> 00:33:21,780
Ik ben met een tweede boek bezig, samen met Gabriela Obispa.
869
00:33:21,780 --> 00:33:24,080
En die heeft nu als werktitel niet onze AI.
870
00:33:24,080 --> 00:33:26,920
Maar de begrepen van de redacteur, eigenlijk moet je geen negatieve titel hebben.
871
00:33:26,920 --> 00:33:27,360
Dat werktitel.
872
00:33:27,360 --> 00:33:29,320
Dus dit is werktitel.
873
00:33:29,320 --> 00:33:32,660
En dat gaat er eigenlijk over, er zijn meer perspectieven op AI.
874
00:33:32,740 --> 00:33:35,800
Nu hebben we heel erg dat Silicon Valley, die wordt efficiënter.
875
00:33:35,800 --> 00:33:36,800
Of we gaan er allemaal aan.
876
00:33:36,800 --> 00:33:38,480
Of je baan gaat verdwijnen.
877
00:33:38,480 --> 00:33:40,700
Maar er zijn nog meer smaken, meer manieren van kijken.
878
00:33:40,700 --> 00:33:46,300
Dus die willen we met het boek door middel van verschillende mensen die andere ideeën hebben dan je vaak hoort, aan het woord te laten.
879
00:33:46,300 --> 00:33:49,500
Dan doen we interviews mee, die komen ook in het boek terug.
880
00:33:49,500 --> 00:33:53,600
Maar dat interview met de eerste persoon was Judith Zoe Blijden.
881
00:33:53,600 --> 00:33:55,080
En zij is filosoof en jurist.
882
00:33:55,520 --> 00:33:58,640
En dat hebben we toen met NotebookLM.
883
00:33:58,640 --> 00:34:03,460
Dat is een gereedschap van Google die dan allerlei tekstdocumenten omzet in een soort podcast.
884
00:34:03,460 --> 00:34:10,139
En toen hadden we een interview met haar, hadden we omgezet als NotebookLM podcast.
885
00:34:10,139 --> 00:34:13,400
En die dacht ik, die zet ik dan op Spotify en dan kunnen mensen naar het interview luisteren.
886
00:34:13,400 --> 00:34:17,620
Maar dat is natuurlijk Judith Zoe Bleiden helemaal niet waar je dan naar luistert.
887
00:34:17,760 --> 00:34:19,560
Dat is een Amerikaanse die met...
888
00:34:19,560 --> 00:34:22,739
Maar het lijken Amerikanen, maar het zijn synthetische mensen die niet bestaan.
889
00:34:22,739 --> 00:34:23,880
Synthetische stemmen.
890
00:34:23,880 --> 00:34:25,719
Dus toen had ik het met Gabriella over.
891
00:34:25,719 --> 00:34:27,159
En ik was daar wat te enthousiast over.
892
00:34:27,159 --> 00:34:28,480
Ik dacht, ja dat moeten we eigenlijk helemaal niet doen.
893
00:34:28,480 --> 00:34:30,060
Dit kan eigenlijk helemaal niet.
894
00:34:30,060 --> 00:34:31,420
En sommige mensen snapt het wel.
895
00:34:31,420 --> 00:34:35,679
Maar ik dacht, ja ik weet wel dat het niet de geïnterviewde is of Gabriella of ik.
896
00:34:35,679 --> 00:34:37,780
Maar dat is toch een beetje onduidelijk.
897
00:34:37,780 --> 00:34:39,560
En NRC heeft dit bijvoorbeeld gehad.
898
00:34:39,560 --> 00:34:45,739
Die hebben twee redacteuren uitgekozen waarvan de stemmen gekloond zijn.
899
00:34:46,239 --> 00:34:49,360
En die lezen nu, die stemmen lezen de artikelen voor.
900
00:34:49,360 --> 00:34:51,040
Daar hebben ze heel bewust voor gekozen.
901
00:34:51,040 --> 00:34:53,199
En dat hebben ze ook uitgelegd.
902
00:34:53,199 --> 00:34:54,639
Dan lezen ze daar heel transparant in.
903
00:34:54,639 --> 00:34:55,699
En daar vond ik het wel kunnen.
904
00:34:55,699 --> 00:34:59,020
Maar toen dacht ik, ja zelf heb ik me een beetje laten meeslepen door de technologie.
905
00:34:59,020 --> 00:35:00,360
Dan moet ik dit niet doen.
906
00:35:00,360 --> 00:35:01,420
Ja, dat moet geldig.
907
00:35:01,420 --> 00:35:03,320
Dus dat gebruiken we dan niet als output.
908
00:35:03,320 --> 00:35:05,540
En dat is eigenlijk weer wat veel journalisten zeggen.
909
00:35:05,540 --> 00:35:06,460
Daar doen we het niet voor.
910
00:35:06,460 --> 00:35:09,620
Dus niet generatieve AI om te publiceren.
911
00:35:09,620 --> 00:35:11,140
Maar wel ergens in je proces.
912
00:35:11,140 --> 00:35:13,100
Dus wij gebruiken we als we het interview opnemen.
913
00:35:13,100 --> 00:35:16,220
Dan gebruiken we, ik gebruik dan, ik heb zo'n Google.
914
00:35:16,220 --> 00:35:16,880
Pixel phone.
915
00:35:16,880 --> 00:35:17,880
Daar zit een recorder op.
916
00:35:17,880 --> 00:35:20,080
En die transcribeert direct mee, ook in Nederlands.
917
00:35:20,080 --> 00:35:22,480
Dan gebruiken we ook nog GoodTape.io.
918
00:35:22,480 --> 00:35:23,440
Dat gebruiken we heel veel journalisten.
919
00:35:23,440 --> 00:35:26,460
Dat is van Deense makelij door journalisten ontwikkeld.
920
00:35:26,460 --> 00:35:27,220
Als transcriptietool.
921
00:35:27,220 --> 00:35:31,300
Dus die schrijft dan ook nog een keer het audiofile uit.
922
00:35:31,300 --> 00:35:32,520
Zie je daar dan nog verschillende in?
923
00:35:32,520 --> 00:35:34,100
Ja, die GoodTape is iets beter.
924
00:35:34,100 --> 00:35:35,320
Vind ik iets scherper.
925
00:35:35,320 --> 00:35:36,620
Ook niet 100% waterdicht.
926
00:35:36,620 --> 00:35:37,400
Maar wel handig.
927
00:35:37,400 --> 00:35:39,220
Dan gebruik ik bijvoorbeeld GoodTape om te transcriberen.
928
00:35:39,220 --> 00:35:43,260
Dan gebruik ik bijvoorbeeld NotebookLM.
929
00:35:43,260 --> 00:35:44,620
Nog voordat we het interview hebben.
930
00:35:44,620 --> 00:35:51,520
Want dan kijk ik overal interviews en bio's van degenen die we gaan interviewen.
931
00:35:51,520 --> 00:35:52,060
Of die er zijn.
932
00:35:52,060 --> 00:35:53,620
En die zet ik dan in NotebookLM.
933
00:35:53,620 --> 00:35:57,480
En dan kan je een tijdlijn maken van wanneer je een cv vindt of LinkedIn.
934
00:35:57,480 --> 00:36:00,760
Dan kun je zelfs YouTube video's en andere urls inladen.
935
00:36:00,760 --> 00:36:02,740
En dat helpt heel handig om te researchen.
936
00:36:02,740 --> 00:36:04,360
En je kan zelfs een chatbot vragen.
937
00:36:04,360 --> 00:36:05,700
Dat mag zelfs bij de New York Times.
938
00:36:06,160 --> 00:36:08,140
Elke vragen zou jij stellen aan deze persoon.
939
00:36:08,140 --> 00:36:09,960
En dat is natuurlijk heel aardig om te bedenken.
940
00:36:09,960 --> 00:36:11,040
Oh, die drie had ik al bedacht.
941
00:36:11,040 --> 00:36:12,460
Die drie vind ik eigenlijk best wel goed.
942
00:36:12,460 --> 00:36:14,140
Arstikke slim, mooi.
943
00:36:14,140 --> 00:36:14,780
Die pak ik mee.
944
00:36:14,780 --> 00:36:16,260
En deze vragen staan nergens op.
945
00:36:16,260 --> 00:36:17,060
Die stel ik niet.
946
00:36:17,060 --> 00:36:17,580
Precies.
947
00:36:17,580 --> 00:36:19,520
Dus de mens is uiteindelijk verantwoordelijk.
948
00:36:19,520 --> 00:36:21,140
Maar zo, dus op al die fases.
949
00:36:21,140 --> 00:36:23,180
En ik gebruik languagetool.org.
950
00:36:23,180 --> 00:36:25,440
Als ik aan het uitschrijven ben.
951
00:36:25,440 --> 00:36:26,900
Of een inleiding schrijf.
952
00:36:26,900 --> 00:36:27,920
En die helpt me weer.
953
00:36:27,920 --> 00:36:28,380
En die zegt.
954
00:36:28,380 --> 00:36:30,220
Deze zin is 46 woorden lang.
955
00:36:30,220 --> 00:36:30,840
Weet je het zeker?
956
00:36:30,840 --> 00:36:33,920
En die kan het ook herformuleren voor je.
957
00:36:33,920 --> 00:36:34,700
Ja, die kan het herformuleren.
958
00:36:34,700 --> 00:36:36,440
En daar wordt het ook alweer spannend.
959
00:36:36,440 --> 00:36:36,860
Maar als je denkt.
960
00:36:36,860 --> 00:36:38,560
Ja, dit is eigenlijk wel mooier gezegd.
961
00:36:38,560 --> 00:36:41,260
Nou, dan kan ik zelf ervoor kiezen om dat te doen.
962
00:36:41,260 --> 00:36:42,060
Maar ik.
963
00:36:42,060 --> 00:36:43,540
En die geef je zelfs opties van.
964
00:36:43,540 --> 00:36:46,480
Je kan het heel formeel, informeel, zakelijk.
965
00:36:46,480 --> 00:36:48,520
En dat is wel handig.
966
00:36:48,520 --> 00:36:50,400
En dan dus dan heb je iets meer eindredactie.
967
00:36:50,400 --> 00:36:51,700
En dat doet hij niet.
968
00:36:51,700 --> 00:36:52,880
Wat mensen met een chatbot doen.
969
00:36:52,880 --> 00:36:53,640
Herschrijf dit stuk.
970
00:36:53,640 --> 00:36:54,220
Want dan weet je.
971
00:36:54,220 --> 00:36:55,420
Dan is het jouw stuk niet meer.
972
00:36:55,420 --> 00:36:56,440
Maar als je het zin voor zin doet.
973
00:36:56,440 --> 00:36:58,120
En je kunt het steeds aangeven.
974
00:36:58,120 --> 00:36:58,620
Ja of nee.
975
00:36:58,620 --> 00:37:00,460
En dan ben je er toch meer bij.
976
00:37:00,460 --> 00:37:01,260
Dan ben je toch meer.
977
00:37:02,460 --> 00:37:06,600
Nou ja, daarmee je tekst aan het boetseren is toch wat anders dan wat voor jou geschreven wordt.
978
00:37:06,600 --> 00:37:07,860
Ja, inderdaad.
979
00:37:07,860 --> 00:37:09,000
Boetseren is wel een mooi woord.
980
00:37:09,000 --> 00:37:12,900
Daarop voort had ik nog wel een vraag over de adoptie.
981
00:37:12,900 --> 00:37:14,280
Je hebt de hele traject meegemaakt.
982
00:37:14,280 --> 00:37:15,000
Ook in de media.
983
00:37:15,000 --> 00:37:16,880
En allemaal verschillende mensen die ermee aan de slag zijn.
984
00:37:16,980 --> 00:37:22,540
Wat is nou de meest voorkomende misvatting die mensen over AI hebben als ze ermee aan de slag gaan?
985
00:37:22,540 --> 00:37:23,860
Ja, dat is wel leuk.
986
00:37:23,860 --> 00:37:29,660
Want ik heb best wel wat driedaagse trainingen die ik toen zelf ontwikkeld heb gegeven nu aan best wel veel journalisten.
987
00:37:29,660 --> 00:37:33,880
En ze zeggen eigenlijk aan het eind van die driedaagse altijd drie dingen.
988
00:37:33,880 --> 00:37:36,260
Dus het gaat over demystificatie.
989
00:37:36,260 --> 00:37:39,940
Oftewel, de uitspraak is vaak het is helemaal niet zo magisch als ik dacht.
990
00:37:39,940 --> 00:37:42,380
Sterker nog, het is veel dommer dan ik dacht eigenlijk.
991
00:37:42,380 --> 00:37:42,940
Goed hoor.
992
00:37:43,000 --> 00:37:43,680
Dus dat is de eerste.
993
00:37:43,680 --> 00:37:46,740
De tweede is dat ze zeggen, het is heel veel handwerk.
994
00:37:46,740 --> 00:37:49,500
Ik had niet verwacht dat ik zoveel zelf eerst moest doen.
995
00:37:49,500 --> 00:37:52,100
Dus heel veel voorbeelden van niet en voorbeelden van wel.
996
00:37:52,100 --> 00:37:55,260
Of om het systeem te trainen, te leren van dit zoek ik.
997
00:37:55,260 --> 00:37:58,420
En dat het heel veel mensenwerk was.
998
00:37:58,420 --> 00:37:59,940
En daar ben ik altijd het blijst mee.
999
00:37:59,940 --> 00:38:02,640
Dat zeiden, ja, dus als jij er niet goed over nagedacht hebt.
1000
00:38:02,640 --> 00:38:06,200
Als jij geen consensus hebt over we hebben zoveel vakjes nodig.
1001
00:38:06,200 --> 00:38:07,960
En dit hoort in vakje A en dit in C.
1002
00:38:07,960 --> 00:38:11,580
En ja, wanneer heeft iemand een kort haar of een lange baard?
1003
00:38:11,580 --> 00:38:12,620
En dat lijkt nog makkelijker.
1004
00:38:12,620 --> 00:38:13,260
Dat zal niet doen.
1005
00:38:13,260 --> 00:38:14,480
Nou, laat staan.
1006
00:38:14,480 --> 00:38:15,600
Wat is een vogel?
1007
00:38:15,600 --> 00:38:16,660
Ja, is een eend een vogel?
1008
00:38:16,660 --> 00:38:20,000
Dus dat soort discussies komen erachter.
1009
00:38:20,000 --> 00:38:24,300
We moeten dus zelf heel duidelijk eerst weten waar we naar op zoek zijn.
1010
00:38:24,300 --> 00:38:25,940
En wanneer we iets een goed resultaat vinden.
1011
00:38:25,940 --> 00:38:28,300
Dus dat dwingt ze tot veel explicieter te zijn.
1012
00:38:28,300 --> 00:38:29,500
Ook over kwaliteit eigenlijk.
1013
00:38:29,500 --> 00:38:31,480
En dat vind ik altijd een mooie uitkomst.
1014
00:38:31,480 --> 00:38:32,520
Dus het is geen magie.
1015
00:38:32,520 --> 00:38:33,720
Het is heel veel handwerk.
1016
00:38:33,720 --> 00:38:34,580
Een soort monnikenwerk.
1017
00:38:34,580 --> 00:38:36,580
En het is dus heel veel mensenwerk.
1018
00:38:37,260 --> 00:38:39,220
En dan kom je er heel snel op ethiek natuurlijk ook.
1019
00:38:39,220 --> 00:38:42,400
Maar vooral, ja, je moet dus heel veel in gesprek met mensen.
1020
00:38:42,400 --> 00:38:44,000
Als je dit goed wil doen.
1021
00:38:44,000 --> 00:38:45,480
Voordat het echt werkt.
1022
00:38:45,480 --> 00:38:46,700
Zeker als je zelf modellen traint.
1023
00:38:46,700 --> 00:38:47,780
Absoluut.
1024
00:38:47,780 --> 00:38:51,940
En wat zijn nou, als je iets verder kijkt.
1025
00:38:51,940 --> 00:38:56,660
Weet je, hoe zal deze technologie, het medialandschap nog verder veranderen?
1026
00:38:57,500 --> 00:38:58,720
Ja, dat vind ik best een interessante.
1027
00:38:58,720 --> 00:39:00,440
Want er zijn natuurlijk voorbeelden.
1028
00:39:00,440 --> 00:39:06,020
Als je de oude, eigenlijk de platform, digitale platform verdienmodellen aanhoudt.
1029
00:39:06,020 --> 00:39:13,740
Dan zal er altijd een groep bedrijven zijn die advertenties wil koppelen aan inhoud.
1030
00:39:13,740 --> 00:39:16,440
En als je dan je inhoud niet heel duur wil maken.
1031
00:39:16,440 --> 00:39:18,340
Dan gebruik je AI om inhoud te genereren.
1032
00:39:18,340 --> 00:39:21,520
En dan hoop je daar advertenties omheen te verkopen.
1033
00:39:21,520 --> 00:39:23,280
En ik denk dat daar een kleine markt voor is.
1034
00:39:23,280 --> 00:39:24,740
Dus dat zal ergens wel bestaan.
1035
00:39:25,420 --> 00:39:28,740
Dus ik vergelijk het een beetje met manieren van eten.
1036
00:39:28,740 --> 00:39:31,240
Je kunt naar een fastfoodketen gaan.
1037
00:39:31,240 --> 00:39:35,300
En dan weten we allemaal hoe je je daarna, twee uur later of een dag daarna voelt.
1038
00:39:35,300 --> 00:39:36,920
Je kunt naar een Michelin gaan.
1039
00:39:36,920 --> 00:39:38,540
Tenminste, als je het je kunt veroorloven.
1040
00:39:38,540 --> 00:39:39,240
En dat is ook zoiets.
1041
00:39:39,240 --> 00:39:40,860
Maar je kunt thuis bezorgd.
1042
00:39:40,860 --> 00:39:41,580
Je kunt zelf koken.
1043
00:39:41,580 --> 00:39:43,540
Je kunt uitgebreid koken voor vrienden.
1044
00:39:43,540 --> 00:39:45,180
Je kunt afhalen.
1045
00:39:45,180 --> 00:39:46,280
Je kunt de pizza in de oven doen.
1046
00:39:46,280 --> 00:39:47,940
En dat is AI ook.
1047
00:39:47,940 --> 00:39:52,240
Dus AI biedt je eigenlijk, je hebt allemaal dat soort gradaties van gebruik van AI.
1048
00:39:52,240 --> 00:39:55,280
En ook dat heeft weer te maken met de uitgangspunten.
1049
00:39:55,280 --> 00:39:59,040
Dus sommige ondernemers of gebruikers die vinden het ene op dat moment oké.
1050
00:39:59,040 --> 00:40:00,960
En in een andere situatie werkt het anders.
1051
00:40:00,960 --> 00:40:03,780
Dus het is niet zo, het is ook hier heel grijs.
1052
00:40:03,780 --> 00:40:04,560
Het is niet zwart-wit.
1053
00:40:04,560 --> 00:40:06,060
Dus daar vergelijk ik het meer mee.
1054
00:40:06,060 --> 00:40:08,600
En Marleen Stikker van Waag, kennen jullie misschien wel.
1055
00:40:09,180 --> 00:40:12,920
Die heel veel onderzoek doen naar maatschappelijke acceptatie van technologie.
1056
00:40:12,920 --> 00:40:13,340
Ja.
1057
00:40:13,340 --> 00:40:18,980
Die zei ook van ja, we moeten ook ophouden met te zeggen van ja, maar ik vind AI, het is ook heel handig.
1058
00:40:18,980 --> 00:40:24,020
Want ik kan een transcriberen of ik kan een plaatje maken om mijn verhaal beter uit te leggen aan iemand.
1059
00:40:24,020 --> 00:40:25,760
Dus zei, daar moeten we mee ophouden.
1060
00:40:25,760 --> 00:40:27,780
Want het is fijn dat je iemand kan videobellen in Australië.
1061
00:40:27,780 --> 00:40:28,540
Dat is net als eten.
1062
00:40:28,540 --> 00:40:29,220
Je hebt het nodig.
1063
00:40:29,220 --> 00:40:31,180
Maar sommige eten is niet zo goed voor je.
1064
00:40:31,180 --> 00:40:32,300
Dat moet je niet zo vaak eten.
1065
00:40:32,300 --> 00:40:34,420
En sommige eten wordt zo verkeerd bereid.
1066
00:40:34,420 --> 00:40:35,400
Dat moeten we verbieden.
1067
00:40:35,560 --> 00:40:37,420
En dat is het met technologie ook.
1068
00:40:37,420 --> 00:40:38,680
Dus we hebben het gewoon nodig.
1069
00:40:38,680 --> 00:40:39,860
Net zoals dat je moet eten.
1070
00:40:39,860 --> 00:40:42,000
Maar sommige technologie is beter dan andere.
1071
00:40:42,000 --> 00:40:43,920
En daar moeten we het met elkaar over hebben.
1072
00:40:43,920 --> 00:40:44,980
Mooie.
1073
00:40:44,980 --> 00:40:45,900
Een mooie vergelijking.
1074
00:40:45,900 --> 00:40:46,200
Ja.
1075
00:40:46,200 --> 00:40:48,420
En ik was me wel nieuwsgierig.
1076
00:40:48,420 --> 00:40:50,000
Achtergrond in design thinking.
1077
00:40:50,000 --> 00:40:51,260
UX design.
1078
00:40:51,260 --> 00:40:55,460
Hoe heeft dat je geholpen in de hele AI adoptie?
1079
00:40:55,460 --> 00:40:59,940
Ja, dat heeft me vooral geholpen met nadenken om dat altijd de gebruiker centraal te stellen.
1080
00:40:59,940 --> 00:41:03,440
Dus op welke manier zullen mensen nou geholpen zijn met deze technologie?
1081
00:41:03,740 --> 00:41:07,360
En je ziet natuurlijk toch vaak, zeker die technologie, die pushen dit heel erg.
1082
00:41:07,360 --> 00:41:10,300
Van je kunt nu dit en wij kunnen dat.
1083
00:41:10,300 --> 00:41:12,160
En dat is natuurlijk vanuit engineers ontwikkeld.
1084
00:41:12,160 --> 00:41:15,340
Vanuit programmeurs, developers.
1085
00:41:15,340 --> 00:41:17,840
En die hebben een oplossend vermogen.
1086
00:41:17,840 --> 00:41:19,260
Dus die zien problemen met technologie.
1087
00:41:19,260 --> 00:41:19,900
Kun je dingen oplossen.
1088
00:41:19,900 --> 00:41:25,700
Maar goed, als user experience designer en design thinking, ga je altijd van de gebruiker uit.
1089
00:41:25,700 --> 00:41:26,500
Wat heeft die nodig?
1090
00:41:26,500 --> 00:41:28,620
En dat is niet altijd een technologische oplossing.
1091
00:41:29,180 --> 00:41:33,800
Maar we zitten nu eenmaal in een soort frame en in een wereld waarin de technologie voor van alles wordt ingezet.
1092
00:41:33,800 --> 00:41:36,700
Om dingen op te lossen die je helemaal niet met technologie kunt oplossen.
1093
00:41:36,700 --> 00:41:38,420
En dus daar zit mijn gedachte.
1094
00:41:38,420 --> 00:41:40,640
En dat krijg ik vaak terug.
1095
00:41:40,640 --> 00:41:42,040
Ook van journalisten, maar ook van anderen.
1096
00:41:42,040 --> 00:41:44,720
Maar jij bent de AI-man in de journalistiek.
1097
00:41:44,720 --> 00:41:46,620
En jij zegt ook heel vaak dat we het niet moeten doen.
1098
00:41:47,020 --> 00:41:48,960
Ja, want ik denk toch dat je eerst moet kijken.
1099
00:41:48,960 --> 00:41:50,080
Wat heeft je publiek nodig?
1100
00:41:50,080 --> 00:41:51,220
Wat heeft die lezer nodig?
1101
00:41:51,220 --> 00:41:55,800
Want er is nu heel veel onderzoek dat heel veel mensen nieuws aan het mijden zijn.
1102
00:41:55,800 --> 00:41:57,180
Dat heeft heel veel verschillende redenen.
1103
00:41:57,180 --> 00:41:59,340
En niet omdat ze het niet vertrouwen.
1104
00:41:59,340 --> 00:42:00,180
Die groep is maar heel klein.
1105
00:42:00,180 --> 00:42:02,220
We denken altijd dat dat...
1106
00:42:02,220 --> 00:42:03,860
Die noemden we dan wappies.
1107
00:42:03,860 --> 00:42:05,640
Wat ook heel oneerlijk en niet fijn is.
1108
00:42:05,640 --> 00:42:07,060
Want mensen hebben gewoon behoefte.
1109
00:42:07,060 --> 00:42:08,820
En dus als user experience kijk je.
1110
00:42:08,820 --> 00:42:10,920
Wat zijn de behoeften van mensen?
1111
00:42:10,920 --> 00:42:13,400
En de ene van is er is zoveel ellende in de wereld.
1112
00:42:13,400 --> 00:42:14,940
Je kan dat niet al een hele dag volgen.
1113
00:42:15,460 --> 00:42:17,900
Dus je moet me eigenlijk helpen hoe ik daarmee om moet gaan.
1114
00:42:17,900 --> 00:42:19,720
In plaats van iedere dag weer al die berichtgeving.
1115
00:42:19,720 --> 00:42:20,560
Die moet er ook zijn.
1116
00:42:20,560 --> 00:42:22,800
Maar niet elke dag de hele tijd voor mij.
1117
00:42:22,800 --> 00:42:24,360
Om weer met eten te gaan.
1118
00:42:24,360 --> 00:42:27,000
Ik hoef niet de hele dag, iedere dag broccoli te eten.
1119
00:42:27,000 --> 00:42:28,420
Ik wil ook wel eens een keer iets anders.
1120
00:42:28,420 --> 00:42:31,340
En de journalistiek geeft me te veel broccoli de hele dag.
1121
00:42:31,340 --> 00:42:33,920
En ik denk als de journalistiek daarnaar luistert.
1122
00:42:33,920 --> 00:42:36,680
Hoe kunnen we ook gewoon een keer iets...
1123
00:42:36,680 --> 00:42:39,240
Het hoeft niet ongezond, maar het mag wel wat variatie en wat lekkerder.
1124
00:42:39,240 --> 00:42:39,840
Of iets anders.
1125
00:42:39,840 --> 00:42:43,240
En daar kan AI soms bij helpen.
1126
00:42:43,240 --> 00:42:44,400
En dat geloof ik ook zeker.
1127
00:42:45,020 --> 00:42:46,620
En dan moet je weten wat je kan.
1128
00:42:46,620 --> 00:42:47,860
En dan moet je ermee experimenteren.
1129
00:42:47,860 --> 00:42:49,480
En wat Freek Stap zei bijvoorbeeld.
1130
00:42:49,480 --> 00:42:50,820
Behoedzaam experimenteren.
1131
00:42:50,820 --> 00:42:52,780
Maar dat betekent dus ook dat je in heel veel gevallen zegt.
1132
00:42:52,780 --> 00:42:54,740
Nee, we hebben geen AI nodig.
1133
00:42:54,740 --> 00:42:55,180
Precies.
1134
00:42:55,180 --> 00:42:55,540
Inderdaad.
1135
00:42:56,040 --> 00:42:58,320
We moeten gewoon de markt op en naar mensen luisteren.
1136
00:42:58,320 --> 00:43:00,620
En vragen waar wij nou op door moeten.
1137
00:43:00,620 --> 00:43:01,780
En wat we niet meer moeten doen.
1138
00:43:01,780 --> 00:43:02,580
Dat helpt ons.
1139
00:43:02,580 --> 00:43:03,800
Maar hoe zou je...
1140
00:43:03,800 --> 00:43:07,140
Even kijken of we dat nog wat concreter kunnen maken.
1141
00:43:07,140 --> 00:43:09,360
Niet alleen voor de luisteraar, maar ook voor mij.
1142
00:43:09,360 --> 00:43:11,980
Want ik ben het helemaal met je eens.
1143
00:43:13,100 --> 00:43:15,360
Uiteindelijk haal je namelijk...
1144
00:43:15,360 --> 00:43:17,180
Niet ieder probleem los op met technologie.
1145
00:43:17,180 --> 00:43:18,420
Laat staan met AI.
1146
00:43:20,260 --> 00:43:22,100
We hebben het heel vaak met AI.
1147
00:43:22,100 --> 00:43:22,820
Wat jij ook zei.
1148
00:43:22,820 --> 00:43:24,240
Over productiviteitswinst.
1149
00:43:24,240 --> 00:43:25,440
En allemaal efficiëntie.
1150
00:43:25,440 --> 00:43:25,940
En dat soort dingen.
1151
00:43:25,940 --> 00:43:28,380
Maar het meest productief en efficiënt...
1152
00:43:28,380 --> 00:43:29,720
Word je door dingen niet te doen.
1153
00:43:30,920 --> 00:43:33,080
Dus vanuit jouw design thinking...
1154
00:43:33,080 --> 00:43:35,240
Hoe kan je dan mensen helpen...
1155
00:43:35,240 --> 00:43:37,180
Om dingen niet meer te doen.
1156
00:43:37,180 --> 00:43:38,340
Want dat is echt wel heel moeilijk.
1157
00:43:38,340 --> 00:43:40,800
Het is heel makkelijk om mensen meer te laten doen.
1158
00:43:40,800 --> 00:43:43,620
Weet je, nog een procesje erbij.
1159
00:43:43,620 --> 00:43:44,880
Nog een takenpakketje.
1160
00:43:44,880 --> 00:43:45,680
Nog een...
1161
00:43:45,680 --> 00:43:49,120
Hoe zorg je met design thinking...
1162
00:43:49,120 --> 00:43:50,580
Dat je minder gaat doen.
1163
00:43:50,580 --> 00:43:52,880
Nou, dat is eigenlijk wel een leuke.
1164
00:43:52,880 --> 00:43:57,720
Want dat voert ons een beetje terug naar die Google News Lab tijd.
1165
00:43:57,720 --> 00:44:01,260
Dan deden we met design thinking een soort design sprint.
1166
00:44:01,260 --> 00:44:04,620
Dus vier, vijf dagen begin je met een idee of probleem.
1167
00:44:04,620 --> 00:44:07,260
En dan ga je heel methodisch input halen.
1168
00:44:07,260 --> 00:44:08,620
Dus mensen die er wat van weten.
1169
00:44:08,620 --> 00:44:09,900
En inspirerende voorbeelden.
1170
00:44:09,900 --> 00:44:11,060
En dan ga je kijken van...
1171
00:44:11,060 --> 00:44:12,120
Wat zijn we nou eigenlijk aan het oplossen?
1172
00:44:12,120 --> 00:44:13,060
Wat is het echte probleem?
1173
00:44:13,060 --> 00:44:15,300
Dan ga je over oplossingen nadenken.
1174
00:44:15,300 --> 00:44:16,600
En dan prototype bouwen.
1175
00:44:16,600 --> 00:44:18,380
En de laatste dag test je die met gebruikers.
1176
00:44:18,380 --> 00:44:20,480
Zodat je eigenlijk al een validatie hebt.
1177
00:44:20,480 --> 00:44:21,660
Zit hier nou iets in?
1178
00:44:21,660 --> 00:44:22,840
Moeten we hiermee door?
1179
00:44:22,840 --> 00:44:23,760
Of juist helemaal niet?
1180
00:44:23,760 --> 00:44:25,620
Als je er niet mee door moet zijn...
1181
00:44:25,620 --> 00:44:26,780
Dan heb je maar vijf dagen verbrand.
1182
00:44:27,140 --> 00:44:28,940
En niet al weken en 10.000 euro's.
1183
00:44:28,940 --> 00:44:29,880
En als je er wel moet doen...
1184
00:44:29,880 --> 00:44:30,800
Dan heb je een hele goede richting.
1185
00:44:30,800 --> 00:44:32,620
En dan een soort prototype om op voelen te werken.
1186
00:44:32,620 --> 00:44:36,500
En dat heb ik gedaan een keer met een Zweedse krant.
1187
00:44:36,500 --> 00:44:38,720
De Dagens Nieheter.
1188
00:44:38,720 --> 00:44:41,540
Dat is een soort van De Volkrant of NRC van Zweden.
1189
00:44:41,540 --> 00:44:44,760
En die waren weer geïnspireerd door Spotify.
1190
00:44:44,760 --> 00:44:45,980
Want die waren erachter gekomen.
1191
00:44:45,980 --> 00:44:48,160
Daar was ik toevallig ook bij met hun inspiratie lezing.
1192
00:44:48,880 --> 00:44:50,620
Dat de heavy users...
1193
00:44:50,620 --> 00:44:53,540
De veel gebruikers van Spotify aan een aantal jaar geleden...
1194
00:44:53,540 --> 00:44:57,000
Die maakten playlists voor situaties.
1195
00:44:57,000 --> 00:44:58,200
Zondagochtend.
1196
00:44:58,200 --> 00:44:59,360
Sporten.
1197
00:44:59,360 --> 00:45:00,200
Studeren.
1198
00:45:00,200 --> 00:45:01,800
Bijkomen.
1199
00:45:01,800 --> 00:45:03,860
En daar hadden zij nooit over nagedacht.
1200
00:45:03,860 --> 00:45:05,820
Maar hun data wetenschappers...
1201
00:45:05,820 --> 00:45:08,620
Die hadden opeens door dat de veel gebruikers...
1202
00:45:08,620 --> 00:45:10,440
Uren besteden aan het...
1203
00:45:10,440 --> 00:45:11,480
Ja, ze noemen dat een craft.
1204
00:45:11,480 --> 00:45:11,940
En zeg maar.
1205
00:45:11,940 --> 00:45:13,020
Als een soort ambacht.
1206
00:45:13,020 --> 00:45:16,300
Mensen de perfecte playlist samen zijn voor de zondagochtend of voor.
1207
00:45:16,300 --> 00:45:17,500
Studeren.
1208
00:45:17,500 --> 00:45:18,780
En toen dachten ze...
1209
00:45:18,780 --> 00:45:24,700
Ja, maar niet alle gebruikers hebben die tijd om zo'n playlist voor zichzelf samen te stellen.
1210
00:45:24,700 --> 00:45:30,720
Wat nou als wij de niet zo zware gebruiker helpen door alvast die playlist aan te bieden?
1211
00:45:30,720 --> 00:45:32,160
Dan kunnen we mensen voor inhuren.
1212
00:45:32,160 --> 00:45:32,620
Dat deden ze ook.
1213
00:45:32,620 --> 00:45:35,020
Maar daar kunnen we natuurlijk ook technologie voor gebruiken om te kijken.
1214
00:45:35,020 --> 00:45:37,880
Welke nummers passen er nou bij zondagochtend en bij studeren?
1215
00:45:38,040 --> 00:45:38,320
Ja.
1216
00:45:38,320 --> 00:45:40,740
En dat hebben ze gedaan.
1217
00:45:40,740 --> 00:45:42,380
En dat werd een onwijs succes.
1218
00:45:42,380 --> 00:45:44,380
Dus dat werd uiteindelijk ook bijvoorbeeld...
1219
00:45:44,380 --> 00:45:44,920
Wat heb je nu?
1220
00:45:44,920 --> 00:45:46,440
De Discover Weekly, de Daily.
1221
00:45:46,440 --> 00:45:49,820
Ja, en je hebt inderdaad zo'n zondagochtend...
1222
00:45:49,820 --> 00:45:53,180
Dat zij erachter kwamen van die veel gebruikers die doen dat zelf.
1223
00:45:53,180 --> 00:45:55,100
Niet iedereen heeft daar tijd voor eigenlijk wat je zegt.
1224
00:45:55,100 --> 00:45:56,820
Dus hoe kunnen we die nou helpen om minder te doen?
1225
00:45:56,820 --> 00:45:59,260
Ik weet niet of de veel gebruikers minder playlist zijn.
1226
00:45:59,260 --> 00:46:01,280
Maar ze wilden zich nog meer onderscheiden.
1227
00:46:01,280 --> 00:46:03,280
En dat wilde die krant eigenlijk ook.
1228
00:46:03,280 --> 00:46:06,680
En die waren erachter gekomen dat ze heel veel nieuws brachten.
1229
00:46:06,840 --> 00:46:08,860
Toen zijn ze een aantal vier dingen gaan doen geloof ik.
1230
00:46:08,860 --> 00:46:12,480
Wat moeten we maken van volgens onze missie?
1231
00:46:12,480 --> 00:46:13,860
Waartoe zijn wij op aard?
1232
00:46:13,860 --> 00:46:15,700
Dat is dit gedeelte.
1233
00:46:15,700 --> 00:46:18,540
Wat wordt er gewaardeerd volgens onze lezer?
1234
00:46:18,540 --> 00:46:22,540
Zowel kwantitatief, analytics bekeken, maar ook kwalitatief.
1235
00:46:22,540 --> 00:46:23,740
Echt gebruikersonderzoek gedaan.
1236
00:46:24,700 --> 00:46:28,260
En als derde, wat willen de mensen die hier werken graag maken?
1237
00:46:28,260 --> 00:46:29,120
Wat vinden zij belangrijk?
1238
00:46:29,120 --> 00:46:32,820
En toen hadden ze dat, op die manier hadden ze alles wat ze maakten geanalyseerd.
1239
00:46:32,820 --> 00:46:34,960
En toen bleek geloof dat ze 20% niet meer moesten te maken.
1240
00:46:34,960 --> 00:46:36,760
Het werd niet gelezen.
1241
00:46:36,760 --> 00:46:38,240
Het was niet nodig vanuit de missie.
1242
00:46:38,240 --> 00:46:41,300
En de mensen die er werkte wilden het niet maken.
1243
00:46:41,300 --> 00:46:44,240
En toen dachten ze, wat nou als we daarmee stoppen?
1244
00:46:44,240 --> 00:46:46,140
En toen hebben ze wel gezegd, maar dan wel.
1245
00:46:46,140 --> 00:46:48,300
Niet dat we dan weer meer items moeten maken.
1246
00:46:48,300 --> 00:46:50,580
Maar dat we dan meer tijd krijgen voor de dingen die we wel moeten maken.
1247
00:46:50,580 --> 00:46:53,640
Die mensen waarderen, die we willen maken en die bij de missie horen.
1248
00:46:53,640 --> 00:46:55,100
Kwaliteit over kwantiteit.
1249
00:46:55,100 --> 00:46:55,380
Precies.
1250
00:46:55,380 --> 00:46:58,840
En dat hebben ze ook gekregen.
1251
00:46:58,840 --> 00:47:01,580
Dus de managers hebben ervoor gezorgd dat ze niet...
1252
00:47:01,580 --> 00:47:04,540
Oh ja, maar je hoeft nu minder te maken, dus je kan nu vijf interviews doen in plaats van drie.
1253
00:47:04,540 --> 00:47:09,260
Nee, dan besteden we meer tijd aan wat er in meer landelijk Zweden gebeurt.
1254
00:47:09,260 --> 00:47:10,840
Omdat we daar te weinig aandacht aan besteden.
1255
00:47:10,840 --> 00:47:11,640
En dat willen mensen wel.
1256
00:47:11,640 --> 00:47:14,240
Dus die tijd die we winnen door een aantal dingen niet te doen,
1257
00:47:14,240 --> 00:47:17,200
kunnen we nu besteden aan de blinde vlekken bijvoorbeeld.
1258
00:47:17,200 --> 00:47:18,360
Wat een goed voorbeeld.
1259
00:47:18,360 --> 00:47:19,600
Dus dat vond ik een heel mooi voorbeeld.
1260
00:47:19,600 --> 00:47:19,820
Ja.
1261
00:47:19,820 --> 00:47:27,200
En dan wat je zich aangeeft, ook wel binnen de organisatie ervoor zorgen dat het ook niet inderdaad in een keer die vijf interviews wordt.
1262
00:47:27,200 --> 00:47:29,000
Nee, want dat slaapt er natuurlijk vaak in.
1263
00:47:29,000 --> 00:47:32,220
Want dat wordt dan vaak gezegd van AI doet onze banen verdwijnen.
1264
00:47:32,220 --> 00:47:34,200
En ik maak het dan altijd heel te simpel.
1265
00:47:34,200 --> 00:47:38,580
Maar dan, ja, als er tien mensen zijn die allemaal tien procent iets doen wat straks AI beter kan,
1266
00:47:38,580 --> 00:47:40,160
dan gaat er bij tien mensen tien procent af.
1267
00:47:40,160 --> 00:47:40,400
Ja.
1268
00:47:40,400 --> 00:47:42,820
Ja, dan is het niet zo dat...
1269
00:47:42,820 --> 00:47:46,080
Soms zou je dan zeggen, nou dan gaat er één persoon uit.
1270
00:47:46,080 --> 00:47:47,880
Want je hebt nog maar negen FTE nodig.
1271
00:47:48,540 --> 00:47:51,260
Maar de economist zei, bedrijven zullen het bijna nooit zo redeneren.
1272
00:47:51,260 --> 00:47:52,560
Die zeggen, nee, dan krijg je iets anders.
1273
00:47:52,560 --> 00:47:53,440
Ja, precies.
1274
00:47:53,440 --> 00:47:53,700
Toch?
1275
00:47:53,700 --> 00:47:54,020
Ja.
1276
00:47:54,020 --> 00:47:55,500
En wie is daar dan mee gevonden uiteindelijk?
1277
00:47:55,500 --> 00:47:59,120
Want een bedrijf zou altijd met minder middelen eigenlijk meer output willen.
1278
00:47:59,120 --> 00:48:00,640
Want ontslaan is niet leuk.
1279
00:48:00,640 --> 00:48:03,520
En Messi, en weet je, dat levert veel meer andere gedoe op.
1280
00:48:03,520 --> 00:48:03,840
Precies.
1281
00:48:03,840 --> 00:48:06,040
Dus liever met dezelfde mensen en technologie meer output.
1282
00:48:06,040 --> 00:48:06,480
Ja.
1283
00:48:06,480 --> 00:48:07,480
Maar goed, ja.
1284
00:48:07,480 --> 00:48:08,880
Dat is kwantitatief.
1285
00:48:08,880 --> 00:48:09,240
Ja.
1286
00:48:09,920 --> 00:48:14,400
We zijn ook nog wel benieuwd van, stel je zou helemaal vrij mogen denken.
1287
00:48:14,400 --> 00:48:17,480
Zonder enige beperking.
1288
00:48:17,480 --> 00:48:21,460
Ja, waar jij AI voor zou willen toepassen.
1289
00:48:21,460 --> 00:48:24,380
En dat kan in je werk zijn, dat kan in je privéleven zijn.
1290
00:48:24,380 --> 00:48:27,060
En dan geven we je even wat bedenktijd voor ook.
1291
00:48:27,060 --> 00:48:52,340
Ja, dat is wel een hele goede vraag.
1292
00:48:52,340 --> 00:48:53,260
Ook wel een moeilijke vraag.
1293
00:48:53,260 --> 00:48:53,560
Ja.
1294
00:48:53,560 --> 00:48:56,460
Dus als alles mag.
1295
00:48:56,460 --> 00:48:57,820
Ja, alles mag, alles kan.
1296
00:48:57,820 --> 00:49:00,400
En ik merk dat ik dan meteen al zit te denken, privacy.
1297
00:49:00,400 --> 00:49:09,300
Maar het kan natuurlijk heel fijn zijn als je technologie kunt inzetten.
1298
00:49:09,300 --> 00:49:11,280
Bijvoorbeeld, je wil iets nieuws leren.
1299
00:49:11,280 --> 00:49:14,080
En dat kan ook over geschiedenis gaan of over politiek.
1300
00:49:14,080 --> 00:49:20,180
Maar het kan ook over je wil wielrennen of je wil je eigen meubels maken.
1301
00:49:20,460 --> 00:49:26,060
Het kan natuurlijk heel fijn zijn als je dan een gereedschap hebt als een persoon te duur is.
1302
00:49:26,060 --> 00:49:28,980
Die je gewoon precies vertelt wat je nu moet doen.
1303
00:49:28,980 --> 00:49:31,440
En die dan anticipeert op wat je nodig hebt.
1304
00:49:31,440 --> 00:49:32,640
Dus vragen die je hebt.
1305
00:49:32,640 --> 00:49:34,500
Of je pakt nu deze hamer.
1306
00:49:34,500 --> 00:49:39,040
Maar je zou het beter eerst even voor kunnen boren.
1307
00:49:39,040 --> 00:49:39,600
Noem je dat.
1308
00:49:40,100 --> 00:49:45,460
En dat die dus al een antwoord heeft, of hulp heeft, voordat je de vraag formuleert.
1309
00:49:45,460 --> 00:49:48,500
Aan de andere kant ontneem je mensen natuurlijk ook om ergens tegenaan te lopen.
1310
00:49:48,500 --> 00:49:50,520
Want die frictie is heel belangrijk voor leven.
1311
00:49:50,520 --> 00:49:52,700
En dat begrijp ik ook altijd.
1312
00:49:52,700 --> 00:49:55,120
Want zeker als het over creativiteit gaat.
1313
00:49:55,120 --> 00:49:59,900
En dan heb je juist verrassing, prikkeling en schuring nodig.
1314
00:49:59,900 --> 00:50:02,320
Frustratie misschien zelfs wel om het te overwinnen.
1315
00:50:02,320 --> 00:50:04,740
En als alles de hele tijd perfect goed gaat.
1316
00:50:04,740 --> 00:50:07,340
Ja, dat zou ik dan ook weer niet leuk vinden.
1317
00:50:07,340 --> 00:50:07,980
Dus ik ben hier.
1318
00:50:07,980 --> 00:50:10,240
Ik heb een soort intern conflict.
1319
00:50:10,240 --> 00:50:11,440
En dat maakt me menselijk.
1320
00:50:11,440 --> 00:50:14,060
En daar wijs ik ook vaak op.
1321
00:50:14,060 --> 00:50:17,820
Van zorgen voor dat je ergens weet dat het schuurt.
1322
00:50:17,820 --> 00:50:18,780
Want dan heb je iets te pakken.
1323
00:50:18,780 --> 00:50:19,060
Ja.
1324
00:50:19,060 --> 00:50:22,000
Bob Ross zei altijd.
1325
00:50:22,000 --> 00:50:23,300
There are no mistakes.
1326
00:50:23,300 --> 00:50:24,980
But only happy accidents.
1327
00:50:24,980 --> 00:50:27,360
Die happy accidents heb je natuurlijk ook nodig.
1328
00:50:28,280 --> 00:50:31,020
Ja, en volgens mij hebben we meerdere onderzoekers.
1329
00:50:31,020 --> 00:50:34,500
Want die discussie over AI en creativiteit.
1330
00:50:34,500 --> 00:50:35,460
Die krijg je niet beslecht.
1331
00:50:35,460 --> 00:50:36,200
Dus dat hoeft ook niet.
1332
00:50:36,200 --> 00:50:37,660
Maar een van die dingen vond ik wel aardig.
1333
00:50:37,660 --> 00:50:40,060
Dat wij lijfelijk zijn.
1334
00:50:40,060 --> 00:50:41,840
Dus vlees en bloed.
1335
00:50:41,840 --> 00:50:43,020
En eindig.
1336
00:50:43,020 --> 00:50:46,460
En dat maakt wel dat we andere behoeften hebben.
1337
00:50:46,460 --> 00:50:49,560
Dan machines die niet uit hoeven of nooit moe zijn.
1338
00:50:49,560 --> 00:50:51,260
En dat moeten we benutten.
1339
00:50:51,260 --> 00:50:53,200
En dat klinkt een beetje filosofisch of zo.
1340
00:50:53,200 --> 00:50:55,060
Maar dat vind ik wel een belangrijke.
1341
00:50:55,060 --> 00:50:56,860
En dat denk ik ook als je verhalen maakt.
1342
00:50:56,960 --> 00:51:00,040
Omdat ik natuurlijk veel met media en makers en journalisten werk.
1343
00:51:00,040 --> 00:51:02,240
Van ja, waar zit dat dan?
1344
00:51:02,240 --> 00:51:05,860
Dat eindigen, dat schaarse, dat vleselijke.
1345
00:51:05,860 --> 00:51:08,420
Dat er iets wel nu moet.
1346
00:51:08,420 --> 00:51:09,780
Want als dat over duizend jaar kan.
1347
00:51:09,780 --> 00:51:11,220
Waarom zou je het dan vandaag doen?
1348
00:51:11,220 --> 00:51:13,540
Dat haalt heel veel urgentie weg.
1349
00:51:13,540 --> 00:51:15,680
Dus waar het dan schuurt.
1350
00:51:15,680 --> 00:51:16,880
Daar heb je iets te pakken.
1351
00:51:16,880 --> 00:51:18,400
Mooi.
1352
00:51:18,400 --> 00:51:18,840
Mooi.
1353
00:51:20,900 --> 00:51:23,820
Wat ik nog wel benieuwd ben.
1354
00:51:23,820 --> 00:51:25,700
Je was er vroeg bij.
1355
00:51:25,700 --> 00:51:28,020
Er zijn nu mensen die luisteren.
1356
00:51:28,020 --> 00:51:32,500
En die denken van, ik wil eigenlijk ook wel de technologie misschien wat meer omarmen.
1357
00:51:32,500 --> 00:51:35,200
Waar zouden ze wat jou betreft moeten beginnen?
1358
00:51:35,200 --> 00:51:38,000
Om meer over AI te leren bijvoorbeeld.
1359
00:51:38,180 --> 00:51:42,680
Of dat je zegt van, ik wil eigenlijk meer AI toepassen in mijn mediawerk.
1360
00:51:42,680 --> 00:51:45,160
Wat zou een goed startpunt voor ze zijn?
1361
00:51:45,160 --> 00:51:48,420
Ja, er zijn meerdere digitale plekken natuurlijk.
1362
00:51:48,420 --> 00:51:52,020
Ik kan zelfs zeggen van, volgende training, ik lees mijn boek.
1363
00:51:52,020 --> 00:51:53,380
Nieuwe boek sowieso.
1364
00:51:53,740 --> 00:51:56,200
Een ander boek is dan in AI-term al eeuwen oud.
1365
00:51:56,200 --> 00:51:58,200
Dat is tegen juli 2022.
1366
00:51:58,200 --> 00:51:59,140
Dat is natuurlijk al.
1367
00:51:59,140 --> 00:52:01,780
En ik denk dat het nog steeds interessant is.
1368
00:52:01,780 --> 00:52:05,780
Je hebt de nationale AI-cursus online handig.
1369
00:52:05,780 --> 00:52:08,080
Maar dan kan je op je eigen tempo dingen volgen en lezen.
1370
00:52:08,080 --> 00:52:10,800
Je kunt natuurlijk tegenwoordig overal over AI lezen.
1371
00:52:10,800 --> 00:52:15,820
Ik zou zelfs kunnen zeggen van, leg gewoon je vraag als prompt aan een chatbot voor.
1372
00:52:15,820 --> 00:52:20,480
Alhoewel ik daar natuurlijk ook denk van, dat is ook qua energieverbruik misschien niet altijd handig.
1373
00:52:20,480 --> 00:52:21,880
Maar die kan wel een plan voor je maken.
1374
00:52:23,060 --> 00:52:27,660
Wat ik de laatste tijd interessant vind, ook weer haat-liefde, is de agenten binnen de AI.
1375
00:52:27,660 --> 00:52:34,280
Dus er is nu een soort nieuwe, hoe moet ik zeggen, nieuwe evolutie in de AI.
1376
00:52:34,280 --> 00:52:37,940
Is dat je met een chatbot kan je een prompt geven, krijg je een antwoord terug.
1377
00:52:37,940 --> 00:52:41,440
Hij kan nu ook redeneren, dus hij kan je laten zien van, dit en dat zou je kunnen doen.
1378
00:52:41,440 --> 00:52:46,220
En hij kan op het echte web zoeken, dus hij kan actuele informatie in de antwoorden meenemen.
1379
00:52:46,220 --> 00:52:49,320
Maar die agenten kunnen ook taken uitvoeren.
1380
00:52:49,320 --> 00:52:52,520
Dus die kunnen dan uit hun chatbot interface, zoals ze dat dan noemen,
1381
00:52:52,860 --> 00:52:56,620
Die kunnen op eBay dingen gaan bestellen of die kunnen concertkaartjes voor je boeken.
1382
00:52:56,620 --> 00:53:02,800
Maar die kunnen bijvoorbeeld ook op universiteitswebsites de tien beste biologen in Nederland vinden,
1383
00:53:02,800 --> 00:53:04,540
die je morgen bijvoorbeeld wilt interviewen.
1384
00:53:04,540 --> 00:53:04,860
Oh ja.
1385
00:53:05,120 --> 00:53:09,500
En dan kun je vragen, geef me de e-mailadres, de telefoonnummers in een Excel sheet en dan krijg je dat.
1386
00:53:09,500 --> 00:53:12,680
Maar als je zegt beste, wie bepaalt dan beste?
1387
00:53:12,680 --> 00:53:15,680
Maar dat gaat nog een stap verder, dan wordt het eng.
1388
00:53:15,680 --> 00:53:18,780
Want dit noemen ze tool-based, dus gereedschap-based.
1389
00:53:18,780 --> 00:53:21,420
Je geeft instructies en de agent voert ze voor je uit.
1390
00:53:21,420 --> 00:53:26,860
En dan zeggen ze, het Engels is on your behalf, dus namens jou.
1391
00:53:26,860 --> 00:53:33,580
Google Pixel heeft als je gebeld wordt, dan kan je je digitale AI-agent laten opnemen.
1392
00:53:33,580 --> 00:53:39,060
Dus dan zegt hij met een gekloonde stem, dit is de agent van Laurens, hij kan even niet opnemen.
1393
00:53:39,060 --> 00:53:40,820
Je kunt met mij vast het gesprek starten.
1394
00:53:40,820 --> 00:53:46,660
En dan kan ik op mijn telefoon meelezen, dan wordt het gesprek live getranscribeerd, wat die beller vertelt.
1395
00:53:46,660 --> 00:53:49,440
Dan denk ik, deze moet ik even opnemen, dan kan ik het inbreken.
1396
00:53:49,440 --> 00:53:54,040
Maar het wordt spannender als je die journalist bent en je hebt die bioloog nodig morgen.
1397
00:53:54,040 --> 00:53:58,180
En je zegt, bel alle tiende mensen maar even op.
1398
00:53:58,180 --> 00:54:02,000
De beste AI-agent van me, met mijn stem gekloond.
1399
00:54:02,000 --> 00:54:03,420
Bel ze alle tien op.
1400
00:54:03,420 --> 00:54:08,740
Als ze willen en kunnen morgen om half tien in de uitzending, dan wil ik ze live aan de telefoon.
1401
00:54:08,740 --> 00:54:12,660
Als ze niet kunnen, dan hoef ik al die telefoontjes niet te construeren.
1402
00:54:12,660 --> 00:54:14,340
Maar dan wordt het spannend.
1403
00:54:14,340 --> 00:54:15,860
Dit vinden mensen al spannend genoeg.
1404
00:54:15,860 --> 00:54:16,840
Dan wordt het nog spannend.
1405
00:54:16,840 --> 00:54:20,840
Wat als die agent voor jou, namens jou afspraken maakt.
1406
00:54:20,840 --> 00:54:23,120
Bijvoorbeeld dat die bioloog zegt, ik word veel gevraagd.
1407
00:54:23,120 --> 00:54:26,920
Ik moet eigenlijk ook nog een college voorbereiden of tentamens nakijken.
1408
00:54:26,920 --> 00:54:28,320
Is er een vergoeding?
1409
00:54:28,320 --> 00:54:30,180
En dat die agent zegt, ja hoor, 250 euro.
1410
00:54:30,180 --> 00:54:33,020
Maar je werkt bij een publieke omroep of een krant en dat doe je niet.
1411
00:54:33,020 --> 00:54:34,320
Uit principe niet.
1412
00:54:34,320 --> 00:54:38,140
Maar dan heeft jouw agent gezegd, ja hoor, dat is er, 250 euro.
1413
00:54:38,140 --> 00:54:40,940
Dus die bioloog komt de volgende dag en die stuurt daarna een factuur.
1414
00:54:40,940 --> 00:54:45,300
En dit lijkt hypothetisch, maar dit gaat gebeuren.
1415
00:54:45,300 --> 00:54:49,780
Dus dan zou ik zeggen, ga hier wel naar kijken.
1416
00:54:49,780 --> 00:54:54,060
Want men zegt, en dit komt zeker ook weer uit Silicon Valley, ga die agenten gebruiken.
1417
00:54:54,060 --> 00:54:56,180
Want die nemen je dan die gereedschappen.
1418
00:54:56,180 --> 00:54:58,140
Dat soort simpele taken.
1419
00:54:58,140 --> 00:55:03,800
Want heel veel mensen zouden volgens Silicon Valley in hun werk vooral copy pasten van het ene programma naar het andere.
1420
00:55:03,800 --> 00:55:05,640
Van het web naar Excel of naar Word.
1421
00:55:06,260 --> 00:55:06,940
Of PowerPoint.
1422
00:55:06,940 --> 00:55:08,400
Nou, dat kan je ook een agenten laten doen.
1423
00:55:08,400 --> 00:55:10,360
En dat kan ook wel een beetje.
1424
00:55:10,360 --> 00:55:14,360
Dus ik zou daar zeker naar gaan kijken om er ook weer achter te komen van, maar wat maakt me dan weer menselijk?
1425
00:55:14,360 --> 00:55:18,380
En ja, niet alles in het leven is hopelijk taak gebaseerd.
1426
00:55:18,380 --> 00:55:19,280
Nee, zeker niet.
1427
00:55:19,280 --> 00:55:19,700
Dat hoop ik altijd.
1428
00:55:19,700 --> 00:55:21,040
En in je werk ook niet, hoop ik.
1429
00:55:21,040 --> 00:55:25,160
Want waar je voor gewaardeerd wordt, is niet dat je heel goed bent in de routine.
1430
00:55:25,160 --> 00:55:26,040
In de copy pasten.
1431
00:55:26,040 --> 00:55:26,760
In de copy pasten.
1432
00:55:26,760 --> 00:55:29,600
Maar goed, dan is het wel interessant om even terug te komen op de vraag.
1433
00:55:29,600 --> 00:55:32,860
Ga daar wel naar kijken, want dit kan wel een nieuwe evolutie zijn.
1434
00:55:33,440 --> 00:55:37,840
En ze zijn nu misschien nog niet zo goed, al heb ik al best wel aardige experimentjes mee gedaan en gezien.
1435
00:55:37,840 --> 00:55:42,520
Als je vooral wil bedenken hoe het is, dan heb ik een podcast tip.
1436
00:55:42,520 --> 00:55:42,980
Mag dat?
1437
00:55:42,980 --> 00:55:44,020
Zeker, uiteraard.
1438
00:55:44,020 --> 00:55:46,420
Die is van Evan Redliff.
1439
00:55:46,420 --> 00:55:48,540
Dat is een Amerikaanse onderzoeksjournalist.
1440
00:55:48,540 --> 00:55:50,760
En die heeft een podcast Shell Game.
1441
00:55:50,760 --> 00:55:53,160
Wat hij daar heeft gedaan is, is zijn eigen stem gekloond.
1442
00:55:53,160 --> 00:55:57,720
Hij heeft een soort ChatGPT getraind met al zijn eigen stukken en biografische gegevens.
1443
00:55:58,320 --> 00:56:00,780
En hij heeft een programmaatje gevonden dat kan bellen.
1444
00:56:00,780 --> 00:56:04,660
En dan koppelt hij zijn eigen stemkloon aan zijn eigen ChatGPT.
1445
00:56:04,660 --> 00:56:07,360
En dan gaat hij mensen opbellen.
1446
00:56:07,360 --> 00:56:10,020
Dus eerst zijn vrouw en dan zegt hij, of die kloon gaat mensen bellen.
1447
00:56:10,020 --> 00:56:11,460
En dan zegt hij, wat zullen we doen dit weekend?
1448
00:56:11,460 --> 00:56:15,060
En dan heeft hij dat gesprek opgenomen en hij geeft commentaar zelf voor die podcast.
1449
00:56:15,060 --> 00:56:18,980
En het tweede is, dan gaat die helpdesk voor de gein een beetje zitten pesten.
1450
00:56:18,980 --> 00:56:22,120
En dan gaat hij fraudeurs terugbellen om ze terug te pesten.
1451
00:56:22,620 --> 00:56:25,080
Maar dan gaat hij zijn twee kloons met elkaar laten bellen.
1452
00:56:25,080 --> 00:56:26,360
Kijken waar het gesprek over gaat.
1453
00:56:26,360 --> 00:56:29,380
En het is hilarisch en beangstigd gelijk.
1454
00:56:29,380 --> 00:56:30,540
Dat is echt een aanrader.
1455
00:56:30,540 --> 00:56:30,960
Oh leuk.
1456
00:56:30,960 --> 00:56:32,600
Shell Game heet hij.
1457
00:56:32,600 --> 00:56:33,960
We zullen hem opnemen in de show note.
1458
00:56:33,960 --> 00:56:36,200
En dan heb je een idee van, dit is met agenten interessant.
1459
00:56:36,200 --> 00:56:39,840
En dit is, dan denk je, dit kan gaan gebeuren.
1460
00:56:39,840 --> 00:56:40,600
Dit gebeurt ook al.
1461
00:56:40,600 --> 00:56:42,020
Dat laat hij ook horen.
1462
00:56:42,020 --> 00:56:43,920
Dan denk je, maar dit moeten we niet willen.
1463
00:56:43,920 --> 00:56:45,800
Maar dan krijg je een heel goed idee over agenten.
1464
00:56:45,800 --> 00:56:46,380
Ah, mooi.
1465
00:56:46,380 --> 00:56:50,500
Lawrence, ontzettend bedankt voor al je inzichten.
1466
00:56:50,660 --> 00:56:53,140
Vooral ook de praktische voorbeelden.
1467
00:56:53,140 --> 00:56:55,560
Ik denk dat dat heel erg tot de verbeeldingen spreekt.
1468
00:56:55,560 --> 00:56:57,480
Dank je wel dat je in de studio wilde komen.
1469
00:56:57,480 --> 00:56:58,160
Ik vond het leuk.
1470
00:56:58,160 --> 00:56:59,920
Ja, hartstikke goed.
1471
00:56:59,920 --> 00:57:02,420
En voor de luisteraar.
1472
00:57:02,420 --> 00:57:04,920
Leuk dat je uiteraard weer luisterde.
1473
00:57:04,920 --> 00:57:08,560
Zorg dat je je even abonneert via je favoriete podcast app.
1474
00:57:08,560 --> 00:57:10,000
Dan mis je geen aflevering.
1475
00:57:10,000 --> 00:57:11,220
Tot de volgende keer.
1476
00:57:11,220 --> 00:57:12,020
Tot de volgende keer.
1477
00:57:12,020 --> 00:57:42,000
[Muziek]