AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E85 - Over de kunst van dataverzameling met Julia Janssen
In deze aflevering van AIToday Live is kunstenaar en onderzoeker Julia Janssen te gast. Ze bespreekt haar project 'Mapping the Oblivion', dat de invloed van algoritmes op ons dagelijks leven onderzoekt.
Janssen deelt inzichten over AI en creativiteit, en haar werk als ambassadeur voor Stichting Data Bescherming Nederland. Ze belicht rechtszaken tegen techbedrijven en het belang van bewustwording rond dataverzameling en privacy.
Links
- Organisatie: Stichting Data Bescherming Nederland
- Organisatie: SDBN Instagram
- Kunstproject: Mapping the Oblivion
- Event: Dutch Design Week - Embassy of Digital Futures
- Website: Studio Julia Janssen
- Social media: Instagram Julia Janssen
- Kaartspel: AI Game Changer - Generative AI editie
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:05,560
Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
2
00:00:05,560 --> 00:00:10,680
Met vandaag echt een gast met een hele bijzondere achtergrond.
3
00:00:10,680 --> 00:00:20,520
Ja, ik ga het zo direct zelf vragen, maar in mijn beleving is het en data, AI, privacy,
4
00:00:20,520 --> 00:00:24,160
kunstenaar, researcher. Dus wat wil je uiteindelijk nog meer?
5
00:00:24,160 --> 00:00:29,400
Nou, we gaan het denk ik echt over hele interessante onderwerpen hebben.
…
00:00:29,400 --> 00:00:33,440
Mijn naam Joop Snijder, CTO bij Aigency. Mijn naam Niels Naglé, Area Lead,
6
00:00:29,400 --> 00:00:33,440
Data & AI bij Info Support. Ik gaf het al een beetje weg.
7
00:00:33,440 --> 00:00:36,800
Normaal gesproken doe ik dat niet. Julia Janssen hebben we in de studio.
8
00:00:36,800 --> 00:00:41,680
Julia, geweldig dat je hier wilde komen. En zeker omdat je nog onderweg bent,
9
00:00:41,680 --> 00:00:46,480
eigenlijk ook naar een hele belangrijke bespreking, hoorden we net, naar beeld en geluid.
10
00:00:46,480 --> 00:00:50,240
Dus we zijn vereerd dat je deze tussenstop maakt.
11
00:00:50,240 --> 00:00:53,520
Maar voordat we beginnen, zou je jezelf eerst even willen voorstellen?
12
00:00:53,520 --> 00:00:57,360
Zeker, ja. Ontzettend leuk om hier ook te zijn. Ik ben kunstenaar en als kunstenaar doe ik
13
00:00:57,360 --> 00:01:03,280
onderzoek naar de invloed van technologie op onze samenleving. Ik richt me vooral
14
00:01:03,280 --> 00:01:07,080
tot de dataverzamelpraktijken van techbedrijven, tot AI, hoe we ons bewegen tussen algoritmes,
15
00:01:07,080 --> 00:01:13,800
het recht op vergetelheid, allemaal dat soort thematieken. Daar maak ik eigenlijk kunst
16
00:01:13,800 --> 00:01:17,560
installaties van, om mensen daar meer kennis van te geven. En daarnaast ben ik ook ambassadeur
17
00:01:17,560 --> 00:01:21,560
van Stichting Data Bescherming Nederland. En wij doen rechtszaken tegen techbedrijven,
18
00:01:21,560 --> 00:01:26,120
zoals Twitter, Adobe en Amazon. Daar willen we straks heel veel meer over weten.
19
00:01:26,120 --> 00:01:32,040
Maar ik wil eigenlijk beginnen bij, je had de muur van digitale heteronomie doorbreken,
20
00:01:32,040 --> 00:01:40,520
in het Nederlands. Het is een stuk in het Engels eigenlijk. Maar dat wil ik een stukje uit voorlezen,
21
00:01:40,520 --> 00:01:48,080
omdat dat denk ik heel mooi aangeeft van wat je wilde bedoelen, wat je wilde doen.
22
00:01:48,080 --> 00:01:53,160
En uiteraard straks eventjes wat heteronomie betekent. Ik was daar niet zo heel erg mee bekend.
23
00:01:53,160 --> 00:01:58,760
Maar ik vond dit een hele mooie inleiding. Kunstmatige intelligentie belooft wrijvingsloze
24
00:01:58,760 --> 00:02:05,080
ervaringen op maak gemaakt en gericht, naadloos en geoptimaliseerd om u, wij,
25
00:02:05,080 --> 00:02:12,200
het beste van dienst te zijn. Maar tegen welke prijs? WrijvingsWrijvingloosheidloosheid komt met gehoorzaamheid
26
00:02:12,200 --> 00:02:18,120
naar de machine, de markt en je eigen profetie. Ik vond dat zo'n mooi stuk. Wat
27
00:02:18,120 --> 00:02:26,240
heeft je ertoe aangezet om hiermee te beginnen? Ja, het is heel grappig hoe zo'n tekst dan
28
00:02:26,240 --> 00:02:33,680
vertaald wordt. Wrijvingsloosheid inderdaad. Ik noem het altijd frictieloosheid. Frictionlessness.
29
00:02:33,680 --> 00:02:38,760
En het is eigenlijk, ik schreef hier over, omdat ik een award had gewonnen, over het
30
00:02:38,760 --> 00:02:45,000
eigenlijk doorbreken van muren. Vanuit daar breaking a wall of digital heteronomy. En
31
00:02:45,000 --> 00:02:52,680
dat is eigenlijk, het gaat over een project, dat heet Mapping the Oblivion. En dat project
32
00:02:52,680 --> 00:02:57,240
heb ik vorig jaar gemaakt voor de BNL in Venetië. En daarmee wil ik eigenlijk onderzoeken hoe we
33
00:02:57,240 --> 00:03:01,280
steeds meer binnen de marges van het algoritme leven en wat dat gaat betekenen voor ons. Dus
34
00:03:01,280 --> 00:03:06,520
we kiezen steeds meer waarop aangestuurd wordt door allemaal verschillende aanbevelingsmodellen.
35
00:03:06,520 --> 00:03:11,800
Bijvoorbeeld Netflix die zegt deze titel vind je voor 88% leuk en deze voor 55%. Wat betekent dat
36
00:03:11,800 --> 00:03:20,080
precies? Hoe wordt zo'n percentage opgebouwd? Als er staat dit vind je voor 64% leuk, wat vind ik dan
37
00:03:20,080 --> 00:03:26,280
voor 36% niet leuk? En dat fenomeen van zowel die aanbevelingsmodellen, maar ook vooral heel
38
00:03:26,280 --> 00:03:34,480
specifiek dat percentage gericht aansturen, dat zien we steeds vaker ook op bijvoorbeeld
39
00:03:34,480 --> 00:03:41,200
zoiets als Google Maps die dat ook doet. Dit restaurant vind je bijvoorbeeld voor 48% leuk,
40
00:03:41,200 --> 00:03:48,040
ik noem maar wat. En dat vind ik een heel interessant fenomeen, want dat betekent gaan
41
00:03:48,040 --> 00:03:52,800
we steeds meer onze keuzes maken op basis van zo'n statistiek, die we vaak ook niet begrijpen,
42
00:03:52,800 --> 00:03:57,600
waarvan we vaak ook niet weten op welke data het getraind is, wat er voor die modellen daarachter
43
00:03:57,600 --> 00:04:02,240
zijn, wie dit soort beslissingen maken. Dus vandaar dat ik dit werk heb gemaakt, Mapping
44
00:04:02,240 --> 00:04:08,160
the Oblivion, en inderdaad ben gaan schrijven naar, we worden dus zowel geleid door de machine
45
00:04:08,160 --> 00:04:13,520
die die voorspellingen doet, op basis van al die data, maar ook de markt die daarachter zit. De
46
00:04:13,520 --> 00:04:19,440
markt die toch wel vrij veel bepaalt over wat wij wel of niet te zien krijgen op allerlei platformen,
47
00:04:19,440 --> 00:04:26,000
hoe we informatie consumeren, hoe we media consumeren. En eigenlijk ga je steeds meer
48
00:04:26,000 --> 00:04:32,600
dus in je eigen voorspelling leven, want als iemand zegt dit vind je voor 98% leuk,
49
00:04:32,600 --> 00:04:37,400
ja wie ben jij om te kiezen tegen de verwachtingen in van het algoritme. Dus dat vind ik dan ook
50
00:04:37,400 --> 00:04:43,160
interessant om te bevragen van ja durven we dan nog wel de onwaarschijnlijkheid te omarmen,
51
00:04:43,160 --> 00:04:49,360
bijvoorbeeld of willekeurigheid te zien of het onverwacht toe te laten. Ik heb in aanloop naar
52
00:04:49,360 --> 00:04:56,160
dit gesprek, heb ik er natuurlijk zelf ook even over nagedacht en moest ik toch wel helaas,
53
00:04:56,160 --> 00:05:01,880
moet ik erbij zeggen, constateren dat als ik bijvoorbeeld een film of zo wil gaan zien,
54
00:05:01,880 --> 00:05:06,880
dat ik dan eerst op IMDB check van welk cijfer heeft hij gekregen en dat ik het daar echt
55
00:05:06,880 --> 00:05:13,480
sterk van laat afhangen of ik dan inderdaad die film kijk of niet. En als ik dat eens een keer
56
00:05:13,480 --> 00:05:18,160
niet gedaan heb en ik vind dan een film leuk en ik zie dat het dan een 5,6 bijvoorbeeld heeft
57
00:05:18,160 --> 00:05:23,440
gekregen, dan zou ik het eigenlijk normaal gesproken zou ik hem dus dan niet gaan kijken.
58
00:05:23,440 --> 00:05:26,840
Dus ik heb daar zelf in die zin dan ook wel dus aanhalingstekens last van.
59
00:05:26,840 --> 00:05:34,420
Vond je het dan ook achteraf gezien minder leuk toen je dat cijfer zag,
60
00:05:34,420 --> 00:05:39,740
als je daarover terugkijkt naar de film of vond je nog steeds even goed?
61
00:05:39,740 --> 00:05:42,540
Nee daar heb ik dan weer geen last van, maar het is wel zo als ik daar een slecht cijfer zie,
62
00:05:42,540 --> 00:05:46,140
denk ik ja daar ga ik mijn tijd niet aan besteden.
63
00:05:46,140 --> 00:05:47,580
Ja oké, nou ja ik kijk daar echt niet naar.
64
00:05:47,580 --> 00:05:49,620
Nou ik vind het een heel goed voorbeeld en dan is natuurlijk dit nog een cijfer wat ook
65
00:05:49,620 --> 00:05:55,100
nog wordt gemaakt op basis van verschillende film critici en allerlei verschillende parameters
66
00:05:55,100 --> 00:05:59,740
die nog wel generiek zijn voor dat hele medialandschap. Op Netflix is het natuurlijk
67
00:05:59,740 --> 00:06:03,740
heel specifiek hoe past het bij jou en de content die je eerder hebt gekeken en vooral ook Netflix
68
00:06:03,740 --> 00:06:10,060
is daar best interessant in. Ze delen jou eigenlijk in als jij en kijkers zoals jij.
69
00:06:10,060 --> 00:06:14,700
Dus het kan bijvoorbeeld ook zijn dat mensen in jouw segment om het zo maar te zeggen,
70
00:06:14,700 --> 00:06:18,580
bijvoorbeeld ineens met zijn allen Emily in Paris gaan kijken en dus dat jouw algoritme
71
00:06:18,580 --> 00:06:23,780
daarin ook wordt aangepast. Dus het kan zijn dat de ene titel je de ene dag wordt aanbevolen met
72
00:06:23,780 --> 00:06:28,180
94% kans dat je dit leuk vindt en de volgende dag met 72% kans. Wat ook ontzettend arbitrair voelt
73
00:06:28,180 --> 00:06:35,460
natuurlijk. Maar ik denk dat je hier precies raakt eigenlijk aan wat ik met dit werk wil zeggen.
74
00:06:35,460 --> 00:06:40,500
Zeker bij zoiets als entertainment voelt het nog wel vrij onbelangrijk eigenlijk. Van het is toch
75
00:06:40,500 --> 00:06:48,540
wel makkelijk. Ik heb een lange dag gehad. Ik wil gewoon klikken wat ik inderdaad wel fijn en
76
00:06:48,540 --> 00:06:53,580
gemakkelijk vind. Maar met dat fenomeen wat zich verspreidt, dus ook al in de keuze voor restaurants,
77
00:06:53,580 --> 00:06:59,740
voor winkels bijvoorbeeld. Is dit iets wat we vaker gaan zien ook voor de meer fundamentele
78
00:06:59,740 --> 00:07:03,580
keuze in ons leven? Willen we bijvoorbeeld onze keuze voor daten of voor carrière of voor
79
00:07:03,580 --> 00:07:09,540
vriendschappen, opleiding. Willen we het ook afhangen van zo'n statistiek? Heel eerlijk,
80
00:07:09,540 --> 00:07:14,220
als ik een statistiek had gekregen over of ik wel of niet een boodschap zou kunnen gaan
81
00:07:14,220 --> 00:07:18,460
verdienen als kunstenaar en daar succesvol in zou kunnen worden. Wat dan succesvol ook betekent.
82
00:07:18,460 --> 00:07:23,580
Dan was ik dit niet gaan doen. Net zoals jij die film niet was gaan kijken. En dat vind ik
83
00:07:23,580 --> 00:07:27,780
wel heel erg kwalijk. Als we op die manier dus echt de onwaarschijnlijkheid uit het leven gaan
84
00:07:27,780 --> 00:07:32,460
banden en alleen nog maar de statistiek gaan volgen. Want dan worden we eigenlijk allemaal
85
00:07:32,460 --> 00:07:35,340
een beetje saai. Is dat dan ook die heteronomie die je noemt? Precies, dat is de heteronomie.
86
00:07:35,340 --> 00:07:40,900
De digitale heteronomie betekent eigenlijk besluitvormer buiten jezelf. Heteronomie is
87
00:07:40,900 --> 00:07:48,100
dus dat dat door een andere externe kracht bijvoorbeeld wordt gedaan. Ja, precies. Ik
88
00:07:48,100 --> 00:07:54,620
moest inderdaad denken ook aan mijn opleiding. Ik ben al wat ouder, dus ik ging in 1991 IT
89
00:07:54,620 --> 00:08:01,820
studeren. En op dat moment was dat echt een van de stomste carrièrekeuzes die je kon maken. Want
90
00:08:01,820 --> 00:08:08,740
daar zou je geen werk in kunnen vinden. Ja, dat was voor de nerds. Dat was voor de nerds,
91
00:08:08,740 --> 00:08:12,260
er was geen werk in te krijgen. Er kwam in 1995 iets als het internet en er veranderde wat. Maar
92
00:08:12,260 --> 00:08:19,060
dat wisten we natuurlijk toen niet. Dus ik vond dat wel, net wat je zegt, Netflix, boeien. Maar
93
00:08:19,060 --> 00:08:26,420
dit soort dingen zijn wel levensveranderende keuzes. En wat heeft jou dan kiezen dat je dit
94
00:08:26,420 --> 00:08:31,980
wel wilde doen? Dit was mijn passie. Ik vond het gewoon leuk. Misschien voor jou denk ik ook toch?
95
00:08:31,980 --> 00:08:37,620
Zelfs ja, ik was inderdaad gewoon een wiskunde nerd die toevallig naar de kunstacademie ging.
96
00:08:37,620 --> 00:08:41,780
En toen ineens dacht ik, hé, wacht, waarom maakt niet iedereen zich de hele dag zorgen
97
00:08:41,780 --> 00:08:45,500
om zijn data? En vanuit daar ben ik dit gaan bouwen. Zou je het kunstwerk kunnen beschrijven
98
00:08:45,500 --> 00:08:54,540
voor de luisteraar? Zeker, ja. Het zijn de achtergrond van het werk. Het zijn enorme
99
00:08:54,540 --> 00:09:01,540
grote soort panelen van een paar meter hoog en een meter breed. Waarop eigenlijk op de achtergrond
100
00:09:01,540 --> 00:09:06,820
een heel patroon is te zien van alle content die op Netflix te vinden is. Dat zijn in Nederland
101
00:09:06,820 --> 00:09:11,660
ongeveer 7000 titels. En een beetje ingedeeld ook in de traditionele genres, zeg maar. En
102
00:09:11,660 --> 00:09:17,900
op basis daarvan zijn ook vormen ontstaan die samen een rechthoek vormen, een paneel, zeg maar. En
103
00:09:17,900 --> 00:09:25,540
bij al die titels, die staan op hele kleine tekst eigenlijk in een soort vorm, zitten allemaal
104
00:09:25,540 --> 00:09:30,060
puntjes omheen. Dus de hele werk is helemaal vol met kleine gaatjes. En wanneer een titel dus is
105
00:09:30,060 --> 00:09:34,740
aanbevolen zit daar een vlaggetje in met het percentage van zekerheid van die dag. Het is
106
00:09:34,740 --> 00:09:41,340
natuurlijk een momentopname. En dat is te zien van zowel mijzelf, dus mijn eigen algoritme,
107
00:09:41,340 --> 00:09:46,980
als dat van mijn vader en dat van mijn oma. Want wij delen een Netflix account. Dus ik vond het
108
00:09:46,980 --> 00:09:52,780
ook wel interessant om op die manier een soort familieportret te maken van onze data. Ook omdat
109
00:09:52,780 --> 00:09:58,380
ik mezelf best wel vaak als voorbeeld neem in mijn werk. Ik denk dat het ook nodig is om iets
110
00:09:58,380 --> 00:10:02,580
van een persoonlijkheid of kwetsbaarheid te laten zien. Of in ieder geval ik geef mezelf
111
00:10:02,580 --> 00:10:06,500
toestemming om deze data te delen. Dus dat is het makkelijkste. En mijn vader en mijn oma,
112
00:10:06,500 --> 00:10:10,460
gelukkig ook, wisten ze volgens mij niet waar ze voor hadden opgegeven. Maar op die manier
113
00:10:10,460 --> 00:10:16,460
laat ik dus eigenlijk zien hoe wij verschillend geprogrammeerd worden. Maar dat je ook eigenlijk
114
00:10:16,460 --> 00:10:20,620
bepaalde dingen wel ziet. Dat heel veel Netflix Originals eigenlijk bij iedereen wel best wel
115
00:10:20,620 --> 00:10:26,100
hoog scoort. En daar zit natuurlijk een heel groot idee achter. Want dat maakt het platform exclusief
116
00:10:26,100 --> 00:10:31,180
en daarom neemt men zijn abonnement, et cetera. Ik leerde mijn oma echt op een nieuwe manier
117
00:10:31,180 --> 00:10:35,940
kennen door dit werk. Positief of negatief? Nou, zij wordt echt geprofileerd in het houden van
118
00:10:35,940 --> 00:10:44,940
Koreaanse horror. En dat had ik niet verwacht, want deze vrouw is nog nooit Limburg uit geweest.
119
00:10:44,940 --> 00:10:50,580
Dus ik vroeg dat ook aan haar. Kijk je dat dan? Vind je dat dan leuk? En hoe zit het? En hoe
120
00:10:50,580 --> 00:10:55,340
kom je daarop? En ze zei, ja, ik heb geen idee. Klik gewoon. En dan komt ze in een soort van
121
00:10:55,340 --> 00:11:00,820
bubbel terecht. Precies. Dus waarschijnlijk wordt ze in een bubbel gezogen daarin. En ja,
122
00:11:00,820 --> 00:11:05,460
dus dat is inderdaad interessant. En ook bijvoorbeeld wat ik ook wel, en goed, we hoeven
123
00:11:05,460 --> 00:11:09,740
niet helemaal over Netflix te hebben, maar ook wat ik interessant vond bijvoorbeeld, ik denk dat ik
124
00:11:09,740 --> 00:11:12,940
vroeger een veel diverser entertainment landschap had voor mezelf, waarin ik veel diversere titels
125
00:11:12,940 --> 00:11:18,380
keek. Bijvoorbeeld ik was nu dat algoritme van mijn vader dus ook aan het bekijken. En toen dacht
126
00:11:18,380 --> 00:11:21,300
ik, hey, vroeger keek ik inderdaad best wel veel oorlogsdocumentaires, et cetera. Het zit niet
127
00:11:21,300 --> 00:11:25,620
meer om algoritme, het komt ook niet meer omhoog. Bijvoorbeeld bij HBO heb ik weer hele andere
128
00:11:25,620 --> 00:11:29,340
dingen die bijvoorbeeld wel weer omhoog komen, maar in Netflix krijg ik alleen maar shit dingen te zien.
129
00:11:29,340 --> 00:11:33,180
En ik kom er niet uit. Nee, maar dat is ook omdat we niet meer gewend zijn om te zoeken,
130
00:11:33,180 --> 00:11:36,900
want het wordt ons voorgeschoteld en we gaan niet meer op zoek. Of, ik weet niet wat het precies is.
131
00:11:36,900 --> 00:11:41,580
Ja, precies. En het is ook, we gaan niet meer op zoek. Kijk, van die 7000 titels krijgt iedereen
132
00:11:41,580 --> 00:11:48,020
er tussen de 300 en 350 per dag aanbevolen, van 55 tot 99 procent zeker dat je dat leuk vindt.
133
00:11:48,020 --> 00:11:54,580
Onder de 55 procent is het voor jou onvindbaar, mits je er actief naar zoekt. Ik noem dat de
134
00:11:54,580 --> 00:12:01,260
vergetelheid, want het raakt eigenlijk, het meeste van de content die op het internet te vinden is,
135
00:12:01,260 --> 00:12:06,300
zien we helemaal niet. Omdat het niet meer in jouw algoritme, in je systeem zit. Of mensen die zoals
136
00:12:06,300 --> 00:12:14,740
jij zijn dat ook niet leuk vinden, zeg maar. Maar dat betekent dus ook dat je het niet tegenkomt en
137
00:12:14,740 --> 00:12:18,460
dus ook niet op die manier er nog over nadenkt dat het mogelijk is. En precies wat Joop inderdaad
138
00:12:18,460 --> 00:12:22,740
ook net zei, dat is voor Netflix helemaal niet zo verschrikkelijk en dat gaat de wereld niet
139
00:12:22,740 --> 00:12:30,940
ten onder brengen. Maar het heeft wel ontzettend invloed, dit soort mechanismes worden ook
140
00:12:30,940 --> 00:12:36,780
ingezet op hoe we nieuws consumeren, hoe we politiek aanschouwen, hoe we, nou ja, ook al op
141
00:12:36,780 --> 00:12:44,140
Instagram, op TikTok, allemaal dat soort mechanismes. Dus het is wel heel erg vormend
142
00:12:44,140 --> 00:12:47,980
voor ons wereldbeeld. - Denk je ook dat het zeg maar de zakelijke wereld indruppelt,
143
00:12:47,980 --> 00:12:54,900
deze mechanismes? - Waar moet je dan aan denken?
144
00:12:54,900 --> 00:13:00,740
- Nou ja, daar worden natuurlijk ook heel veel algoritmes gebruikt. Misschien ook wel heel veel,
145
00:13:00,740 --> 00:13:07,260
dat we ook steeds meer, omdat we zo gewend zijn zeg maar dat je aanbevelingen krijgt,
146
00:13:07,260 --> 00:13:12,300
dat je bijvoorbeeld ook aanbevelingen krijgt over procedures bijvoorbeeld in je bedrijf of
147
00:13:12,300 --> 00:13:19,140
kennis die jou aanbevolen wordt. Dan krijg je daar ook natuurlijk maar een fractie van te zien. En
148
00:13:19,140 --> 00:13:25,180
alles wat je niet weet, kun je eigenlijk ook niet na op zoek. - Zeker, ja. Je ziet het natuurlijk
149
00:13:25,180 --> 00:13:30,780
ook al in sollicitatie-selectie-procedures. Daar wordt met de AI-acte een beetje op gereguleerd
150
00:13:30,780 --> 00:13:35,300
dat dat niet zomaar mag, dat je niet zomaar een algoritme mag vragen van "hè, wie is de
151
00:13:35,300 --> 00:13:38,700
slimste kandidaat?" Want er zit enorm veel bias in dit soort systemen. Maar het klopt,
152
00:13:38,700 --> 00:13:42,260
er worden steeds inderdaad dingen onzichtbaar. Ik denk dat dat voor journalisten bijvoorbeeld ook
153
00:13:42,260 --> 00:13:46,180
heel erg moeilijk is. En überhaupt voor contentmakers. Ik denk dat het twee kanten opgaat,
154
00:13:46,180 --> 00:13:50,860
dat we eigenlijk gehoorzaam worden aan het algoritme. Want het is niet alleen maar aan
155
00:13:50,860 --> 00:13:54,460
de manier hoe we informatie consumeren, maar ook hoe we informatie maken. Weer Netflix als
156
00:13:54,460 --> 00:14:00,980
voorbeeld. Want wat zij doen is films maken. Niet omdat het nou op die manier een goeie film
157
00:14:00,980 --> 00:14:05,580
is, maar precies kijken van "op deze minuut haken mensen af", "op deze seconde moet er iets
158
00:14:05,580 --> 00:14:10,420
gebeuren", "dit is een cliffhanger". Al die originals worden precies gemaakt op de manier
159
00:14:10,420 --> 00:14:15,460
hoe mensen hier naar kijken en wat het hoogst scoort. En niet wat authentiek is voor de makers
160
00:14:15,460 --> 00:14:21,700
bijvoorbeeld. En dat mensen nu denken in "oh, reels van 10 seconden zijn nu trending op Instagram",
161
00:14:21,700 --> 00:14:27,180
"oh, dat zijn nu de carousels met dit". We maken ook content op de manier hoe het algoritme het
162
00:14:27,180 --> 00:14:32,140
pusht. En dat is best wel kwalijk denk ik. Want wat is er autonoom daaraan?
163
00:14:32,140 --> 00:14:37,980
Ja en dat is ook met name het doel natuurlijk. Het doel is om mensen zo lang mogelijk de schermtijd
164
00:14:37,980 --> 00:14:43,260
te geven en vastgeplakt te houden. Maar we weten ook niet altijd het doel. In de media weten we ook
165
00:14:43,260 --> 00:14:48,660
niet precies het doel van een bepaald medium wat bereikt moet worden. Hoeveel invloed heb je er
166
00:14:48,660 --> 00:14:53,300
wel zelf op om buiten zo'n bubbel te kunnen komen? Heb je er invloed op?
167
00:14:53,300 --> 00:14:57,020
Heel weinig. Ja, het is ontzettend moeilijk. Ik denk dat iedereen wel herkent dat je soms
168
00:14:57,020 --> 00:15:01,460
in een Spotify-bubbel te gevangen zit en dat je denkt "ik wil andere muziek horen,
169
00:15:01,460 --> 00:15:04,940
maar kom er niet bij". Nee, dat ik weer dat verschrikkelijke nummer waar ik een hekel aan
170
00:15:04,940 --> 00:15:09,180
heb toch te horen krijgt. Ja, en ook dat je heel veel nummers hoort waarvan je denkt "dit komt
171
00:15:09,180 --> 00:15:15,500
altijd op een gegeven moment voorbij als je afspeellijst voorbij is". Maar ik heb geen
172
00:15:15,500 --> 00:15:19,100
idee van wie het is of hoe het nummer heet. Maar het komt toch altijd voorbij. Ik denk dat het
173
00:15:19,100 --> 00:15:25,100
heel moeilijk is. Ik denk dat ik daar ook naar op zoek ben eigenlijk. Ik ben dus dit werk,
174
00:15:25,100 --> 00:15:29,980
Mapping the Oblivion, wordt een serie van de komende jaren waar ik aan ga werken.
175
00:15:29,980 --> 00:15:34,300
We beginnen met een manifest waar ik nu over aan het schrijven ben om ook het recht op vergetelheid
176
00:15:34,300 --> 00:15:38,980
in te zetten om te kijken hoe kunnen we bijvoorbeeld algoritmes ofwel resetten,
177
00:15:38,980 --> 00:15:43,220
data wissen. Is dat wenselijk? Want dan moet je ineens weer tussen al die oneindigheid en die
178
00:15:43,220 --> 00:15:50,540
complexiteit van het internet gaan scrollen. Lijkt me ook heel erg moeilijk. Kunnen we bijvoorbeeld
179
00:15:50,540 --> 00:15:54,460
wisselen van algoritmes? Lijkt me ook heel erg interessant. Kan ik door de ogen van iemand
180
00:15:54,460 --> 00:15:58,660
anders het internet gaan beleven? Ik denk nog niet dat ik daar een antwoord op heb wat daarin
181
00:15:58,660 --> 00:16:03,380
gaat helpen, wat interessant gaat zijn. Maar ik denk dat het in ieder geval heel belangrijk is om
182
00:16:03,380 --> 00:16:07,380
dat te gaan onderzoeken met elkaar. Wat wordt onze relatie tot dit soort aanbevelingsmodellen?
183
00:16:07,380 --> 00:16:12,180
Ik kan me namelijk ook voorstellen, ik vind het helemaal niet per se van we moeten ze links
184
00:16:12,180 --> 00:16:15,620
laten liggen en we doen er helemaal niks meer mee. Als je gaat kijken naar het internet is echt
185
00:16:15,620 --> 00:16:21,500
oneindig. Er is zoveel te kopen en te vinden en heen te gaan. Het is ergens heel fijn dat je zo'n
186
00:16:21,500 --> 00:16:26,820
soort navigatietool hebt daardoor. Maar ik wil vooral eigenlijk bewaken dat we uiteindelijk,
187
00:16:26,820 --> 00:16:32,420
kennen jullie die film Wall-E met dat robotje? Dat we uiteindelijk zo eindigen allemaal obese
188
00:16:32,420 --> 00:16:37,540
in zo'n donutband, een beetje rondzwevend. Totaal leeg. Ik denk dat we dat zo een beetje tegen gaan.
189
00:16:37,540 --> 00:16:46,460
Dat we een beetje autonoom blijven en blijven nadenken. Je hersenen zijn een spier, die spier
190
00:16:46,460 --> 00:16:51,020
moeten we blijven trainen. Het is echt niet erg om af en toe advies aan ChatGPT te vragen,
191
00:16:51,020 --> 00:16:56,060
maar vraag je af tot welke mate het wenselijk is en wanneer is het ook gewoon heel goed om je eigen
192
00:16:56,060 --> 00:17:03,140
hersens even te laten kraken en na te denken over hoe ga ik dit eigenlijk formuleren? Wat wil ik hier
193
00:17:03,140 --> 00:17:07,660
eigenlijk mee zeggen? Want ik denk dat het alleen maar helpt bij het ontwikkelen van goede dingen
194
00:17:07,660 --> 00:17:13,660
en ideeën. Zeker. Je triggerde me net ook. Kijk de algoritmes, de machine duwt je een bepaalde kant
195
00:17:13,660 --> 00:17:21,700
op. We hadden het bijvoorbeeld over LinkedIn carrousels en een tijd lang is dat inderdaad heel
196
00:17:21,700 --> 00:17:25,660
hip geweest. Maar is het erg, want als ik iets wil overbrengen wil ik heel graag dat het gelezen
197
00:17:25,660 --> 00:17:35,980
wordt. En als het nou in die vorm is dat mensen het wel lezen, is het dan erg dat ik het in die
198
00:17:35,980 --> 00:17:44,540
zin zeg maar, ik wil niet zeggen als slaaf, maar dat ik dan toch wel, dan kies ik deze vorm die het
199
00:17:44,540 --> 00:17:53,140
algoritme pusht, want dan weet ik dat in ieder geval mijn informatie overkomt. Ja, nee dat is
200
00:17:53,140 --> 00:17:59,060
een heel terug punt en ook een goede vraag. Ik denk niet dat het per se erg is, maar ik denk dat
201
00:17:59,060 --> 00:18:03,380
het precies toont hoe afhankelijk we zijn van de platforms en de formats die zij voor ons maken
202
00:18:03,380 --> 00:18:07,980
en hoe ze die algoritmes op welk moment zetten. Een paar maanden geleden is bijvoorbeeld het
203
00:18:07,980 --> 00:18:11,620
Instagram algoritme een beetje aangepast en bijna alle contentmakers waren in paniek van
204
00:18:11,620 --> 00:18:16,100
oh mijn god hoe moet ik nu ook alweer zo'n bericht pushen. En dan moet je dat weer opnieuw uitvinden,
205
00:18:16,100 --> 00:18:21,820
dus dat maakt natuurlijk enorm kwetsbaar voor een handjevol mensen die dit dus wel totaal in de
206
00:18:21,820 --> 00:18:26,980
hand hebben hoe wij informatie consumeren. Welke informatie dus de loop krijgt en welke niet.
207
00:18:26,980 --> 00:18:32,340
De SEO experts zijn natuurlijk ook helemaal in alle staten, want ja hoe krijg je je bedrijf zeg
208
00:18:32,340 --> 00:18:38,940
maar in de antwoorden van ChatGPT. Precies dat soort dingen en ja en dat is denk ik wel heel
209
00:18:38,940 --> 00:18:45,420
interessant en dat is denk ik een goed spanningsveld van hoe ga je aan de ene kant er wel ook gebruik van
210
00:18:45,420 --> 00:18:50,700
kunnen maken en aan de andere kant ook inderdaad een beetje kritisch blijven op tot hoe ver je dat
211
00:18:50,700 --> 00:18:55,620
toelaat. Ja snap ik. En het kunstwerk waar we net over hadden was Netflix georiënteerd. Heb je de
212
00:18:55,620 --> 00:19:02,580
volgende is dat ook weer Netflix of ga je iets anders visualiseren? Ik ben wel nieuwsgierig. Nee
213
00:19:02,580 --> 00:19:06,980
ik wil wel afstappen van Netflix. Leuk, het is een super interessante platform hoor. Maar nee weet
214
00:19:06,980 --> 00:19:12,340
ik nog niet zo goed eigenlijk. Nee misschien gaat het ook niet per se over een platform. Al neem ik
215
00:19:12,340 --> 00:19:16,580
dat vaak wel. Dus mijn vorige werk ging over over Meta en wat Meta allemaal over ons verzamelt
216
00:19:16,580 --> 00:19:21,860
buiten haar eigen platform om. Dus dat ze allerlei slimme achterdeurtjes bouwt in bijvoorbeeld nou
217
00:19:21,860 --> 00:19:28,820
log in met je Facebook account. Want dat is handig he, service gemaakt. Maar goed super goede
218
00:19:28,820 --> 00:19:32,980
achterdeur in al je data. Ze trekken je hele Spotify leeg. Ze zetten pixels in in dingen.
219
00:19:32,980 --> 00:19:37,540
Ze kunnen meelezen met dating apps want die dingen zijn niet versleuteld en als ze daar een
220
00:19:37,540 --> 00:19:41,340
pixel in hebben kunnen ze gewoon lekker meelezen. Ze hebben een geweldig netwerk van ze weten van
221
00:19:41,340 --> 00:19:46,260
iedereen in je WhatsApp met wie jij contact hebt. Precies en wanneer en hoe vaak en hoe vaak je het
222
00:19:46,260 --> 00:19:51,340
opent en in welke groepen je zit. Het is bizar. Het is ongelooflijk wat het Meta-universum aan data
223
00:19:51,340 --> 00:19:58,900
in zich houdt. Ja en dat allemaal puur dat vind ik dus zo bizar. Ik vind het zo bizar dat deze
224
00:19:58,900 --> 00:20:09,100
hele grote infrastructuur met al die data ermee gemoeid is waarmee je zoveel goede dingen ook
225
00:20:09,100 --> 00:20:14,980
zou kunnen doen in de wereld uiteindelijk alleen maar gemoeid is om jou op een advertentie laten
226
00:20:14,980 --> 00:20:18,540
klikken of niet. Terwijl er ook goede alternatieven zijn. Bijvoorbeeld gecontextualiseerd
227
00:20:18,540 --> 00:20:22,700
adverteren. Weet je dus er is een soort mythisch geloof in we hebben meer data en meer rekenkracht
228
00:20:22,700 --> 00:20:28,700
nodig. Want dat is de enige manier om producten te verkopen en de enige manier. De grote winnaars
229
00:20:28,700 --> 00:20:35,620
van dit systeem zijn de bedrijven die deze infrastructuur hebben gefaciliteerd of faciliteren.
230
00:20:35,620 --> 00:20:41,540
De Meta's, de Google's, de Amazon's. Dat is echt niet de bakker op de hoek die ergens een brood
231
00:20:41,540 --> 00:20:46,660
wil verkopen. Dat is een beetje waar we allemaal in geloven. Daar moeten we denk ik een beetje van
232
00:20:46,660 --> 00:20:50,820
af. Data is niet de oplossing voor alles en als het wel zo is laten we dan vooral het inzetten
233
00:20:50,820 --> 00:20:57,260
voor goede dingen in plaats van nog meer spullen aan mensen te verkopen. En het heeft natuurlijk
234
00:20:57,260 --> 00:21:01,100
ook een heel groot privacy component. En nou hebben we daar ook een vraag over gekregen die ik jou
235
00:21:01,100 --> 00:21:07,740
even wilde voorleggen als dat mag. Dan moet ik even de juiste knopjes vinden. Komt hij aan.
236
00:21:07,740 --> 00:21:15,900
De vraag van de week is deze week. Ik ben Fleur van Watermelon en mijn vraag is hoe garandeer ik
237
00:21:15,900 --> 00:21:24,740
privacy met AI? De vraag is hoe garandeer ik privacy met AI? Ja ik denk dat ik hierbij moet
238
00:21:24,740 --> 00:21:33,860
beginnen dat ik totaal geen fan ben van het woord privacy. Omdat ik het een heel erg moeilijk en
239
00:21:33,860 --> 00:21:41,140
nietszeggend woord vind waar van de uitdagingen waar we eigenlijk mee staan. Ook in relatie tot AI.
240
00:21:41,140 --> 00:21:46,820
Voor mij zou het veel meer gaan over hoe waarborgen we waarden zoals vrijheid en autonomie en
241
00:21:46,820 --> 00:21:54,260
democratie en gelijkheid op het internet. Dus hoe gaan we privacy waarborgen? Ja dat is
242
00:21:54,260 --> 00:22:02,900
groot en moeilijk. Ik probeer dan gelijk even te denken waar doelt deze persoon dan op. Ik
243
00:22:02,900 --> 00:22:13,420
denk dat het gaat over hoe is je data bijvoorbeeld beschermd. Nou als we naar de trainingsmodellen
244
00:22:13,420 --> 00:22:19,980
kijken van AI. Die scrapen natuurlijk het hele internet. Zeker met generatieve AI. Om zoveel
245
00:22:19,980 --> 00:22:26,260
mogelijk te leren. Nou dat is denk ik niet echt wat we noemen privacy vriendelijk. Dus dat is ook
246
00:22:26,260 --> 00:22:34,100
wel vrij oneerlijk. Je hebt vaak helemaal geen keuze om te zeggen van er is wel een petitie
247
00:22:34,100 --> 00:22:39,580
geweest bij Instagram. Omdat die al die gezichten en foto's ineens gescrapt werden om hun systeem
248
00:22:39,580 --> 00:22:47,460
te trainen. En op het stukje van data bescherming. Ik denk dat het heel erg moeilijk is om dat
249
00:22:47,460 --> 00:22:53,580
momenteel te waarborgen. Omdat er momenteel helemaal geen goed technologisch framework
250
00:22:53,580 --> 00:22:58,260
bestaat om te weten waar deze informatie vandaan komt. En ervoor te zorgen dat jouw data niet mee
251
00:22:58,260 --> 00:23:04,180
wordt genomen in een trainingsmodel. En dan raak je ook het recht van die vergetelheid wat jij zegt.
252
00:23:04,180 --> 00:23:11,740
Van hoe weet je nou dat je als je vergeten wil worden bij wie je moet zijn. Precies. Nou ik denk
253
00:23:11,740 --> 00:23:17,900
dat dat de hele paradox is. Ik denk dat het recht op vergetelheid. In praktische zin inderdaad. Hoe
254
00:23:17,900 --> 00:23:25,660
kan je daar een aanvraag op doen als je geen idee hebt hoe die infrastructuur in elkaar zit. Want
255
00:23:25,660 --> 00:23:32,300
je geeft één keer akkoord op dit bedrijf. En het wordt gedeeld met duizenden andere partijen. Dus
256
00:23:32,300 --> 00:23:38,220
in praktische zin. Hoe gaat dat dan werken? Onmogelijk lijkt me. Dus dat maakt een privacy
257
00:23:38,220 --> 00:23:45,580
technisch vrij moeilijk, lastig, onhaalbaar, momenteel vraagstuk. Maar ook veel filosofischer.
258
00:23:45,580 --> 00:23:52,660
Wat gaat het überhaupt betekenen om vergeten te worden in een wereld die gebouwd wordt op data?
259
00:23:52,660 --> 00:23:57,540
Ja, betekent het dan dat je je sporen niet meer achterlaat? Of dat die af en toe gewist wordt? Of
260
00:23:57,540 --> 00:24:05,300
dat je ze helemaal niet maakt? Je hebt natuurlijk steeds meer de tendens dat mensen zeggen van
261
00:24:05,300 --> 00:24:11,340
"Goh, als het niet in data gevangen is, bestaat het niet." Weet je wel, als ik ben gaan hardlopen
262
00:24:11,340 --> 00:24:15,220
zonder mijn Fitbit om, ben je dan wel gaan hardlopen? Maar ook is het dus wenselijk om
263
00:24:15,220 --> 00:24:21,700
om vergeten te worden. Omdat je dan niet meer gebruik kan maken van al die tools.
264
00:24:21,700 --> 00:24:27,620
Ja, wat ik daar bij beeld bij heb is het eigenaarschap en besef hebben van welke
265
00:24:27,620 --> 00:24:33,580
data is er over mij en waar wordt het gedeeld en hoe heb ik daar invloed op. Daar is de technologie
266
00:24:33,580 --> 00:24:39,020
nog niet rijp voor om dat makkelijk inzichtelijk te maken. Je kan inderdaad wel steeds vaak bij
267
00:24:39,020 --> 00:24:43,220
bedrijven opvragen van "Goh, wat voor data heb je bij mij?" Zijn ze ook wettelijk verplicht om op tijd
268
00:24:43,220 --> 00:24:47,220
daar antwoord op te geven. Maar er is niet een algemene plek waar je dat eenvoudig kan gaan doen.
269
00:24:47,220 --> 00:24:52,100
Nee, en dat is natuurlijk eigenlijk best wel gek. Want wat we in Europa hebben is een algemeen
270
00:24:52,100 --> 00:24:59,740
framework voor mensenrechtenbescherming op het internet, de AVG. En tegenwoordig ook de DSA en
271
00:24:59,740 --> 00:25:05,180
de DMA. Dat zit in heel veel werelddelen is het een of een consumentenrecht of een soort civil code.
272
00:25:05,180 --> 00:25:10,540
Maar in Europa hebben wij gewoon echt een globaal framework om ons te beschermen.
273
00:25:10,540 --> 00:25:14,300
Tegen voor onze onze data en privacy te beschermen. Maar alsnog wordt daar heel moeilijk op geacteerd.
274
00:25:14,300 --> 00:25:21,940
Precies omdat ook heel veel dingen best wel moeilijk en vaag zijn. Bijvoorbeeld ja,
275
00:25:21,940 --> 00:25:25,740
de data die nodig is om een service te leveren. Ja, wat is nodig? Probeer daar maar eens goede
276
00:25:25,740 --> 00:25:31,140
wetgeving op te maken en dat ook te handhaven. Dus ik denk ook inderdaad de vraag, het is heel
277
00:25:31,140 --> 00:25:35,620
precies wat je zegt, controle, zeggenschap, autonomie, transparantie in relatie tot waar
278
00:25:35,620 --> 00:25:42,100
jouw data wordt gebruikt voor AI, maar ook inderdaad de AI die je gebruikt. Waar die bronnen bijvoorbeeld
279
00:25:42,100 --> 00:25:47,460
weer vandaan komen. Best een interessant gebied in de data wetenschap. Dat heet een provenance,
280
00:25:47,460 --> 00:25:52,820
dat je een stukje soort levenslijn kan toekennen aan informatie. Denk aan een vrij geavanceerde
281
00:25:52,820 --> 00:25:59,900
vorm van citeren. Dus dat je in de metadata van de data kan zien hoe informatie over het internet
282
00:25:59,900 --> 00:26:05,020
beweegt. Dat soort dingen zou bijvoorbeeld kunnen waarborgen dat je bijvoorbeeld ziet waar het heen
283
00:26:05,020 --> 00:26:09,900
gaat. Of wanneer het gebruikt wordt in een algoritme of waardoor het toegekend. Maar ook voor mensen,
284
00:26:09,900 --> 00:26:17,340
het vraagt best wel veel van mensen om zich hier tot te verhouden. Om je maar in te lezen in de
285
00:26:17,340 --> 00:26:23,220
voorwaarden, in waar je precies toestemming voor geeft. En te begrijpen hoe dit soort dingen in
286
00:26:23,220 --> 00:26:27,500
elkaar zitten. De meeste complicaties van gebruik van data zijn lange termijn. Je klikt hierop dus
287
00:26:27,500 --> 00:26:35,100
morgen dat. Nee dat is over een lange lijn. En in dit en dit zou het dus kunnen dat jij bijvoorbeeld
288
00:26:35,100 --> 00:26:39,900
nou geen kans hebt op een baan. Of op deze manier geprofileerd wordt dat. Of dat je heel erg genudged
289
00:26:39,900 --> 00:26:45,740
wordt in dat. En dat is ook best wel heel erg moeilijk voor mensen om constant te gaan overzien
290
00:26:45,740 --> 00:26:51,820
eigenlijk. En ik vind dat de verantwoordelijkheid daarin bij mensen moet liggen. En dat betekent ook
291
00:26:51,820 --> 00:26:57,460
dat het moeilijker wordt om dingen aan te passen. Waar ik meteen aan denk is dat wat je nu ziet,
292
00:26:57,460 --> 00:27:03,220
zeg maar op op x bijvoorbeeld. Er zijn heel snel worden er allerlei polariserende berichten
293
00:27:03,220 --> 00:27:10,540
gepakt. Maar dan wordt er ook gezegd van kijk in 2013 heeft iemand dit getweet. En dat zou
294
00:27:10,540 --> 00:27:18,700
betekenen dat je dus in 11 jaar zeg maar niet van gedachten zou kunnen veranderen. Dat je,
295
00:27:18,700 --> 00:27:23,020
ja weet je als jij of jij ik noem wat 21 bent of 32. Dan heb je een hele levensfase heb je meegemaakt.
296
00:27:23,020 --> 00:27:31,260
Waarin je een hele andere standpunten kan krijgen. Waarbij je maar constant dan misschien
297
00:27:31,260 --> 00:27:36,540
geconfronteerd wordt met wie jij toen was. En het hoeft niet te zijn die degene die je nu bent.
298
00:27:36,540 --> 00:27:41,540
Ja het is onvergefelijk in die zin. En dat is denk ik ook een best wel moeilijk
299
00:27:41,540 --> 00:27:47,180
spanningsveld. Aan de ene kant zijn natuurlijk wel dingen die echt wel heel erg en zo verschijnend
300
00:27:47,180 --> 00:27:53,540
zijn. Die ook niet zomaar vergeten mogen worden misschien. Maar heel veel dingen ook wel. En
301
00:27:53,540 --> 00:27:58,260
inderdaad zeker het ligt heel erg aan de context ook van waar een persoon zich dan in heeft begeven
302
00:27:58,260 --> 00:28:02,220
bijvoorbeeld. En waarin dat nu is. En op het internet wordt dat heel binair. Het is heel
303
00:28:02,220 --> 00:28:07,500
erg één of nul. Het is goed of fout. Dat zie je bijvoorbeeld ook in de rechtspraak. Als we AI
304
00:28:07,500 --> 00:28:11,700
daarin gaan inzetten. Terwijl dat gaat heel erg over de omstandigheden van het geval. Context
305
00:28:11,700 --> 00:28:17,340
en menselijkheid en al die nuances daarin. En dat is heel moeilijk om dat binair te vatten. En
306
00:28:17,340 --> 00:28:23,660
daarmee reduceer je eigenlijk de menselijke complexiteit altijd tot statistiek. En dat
307
00:28:23,660 --> 00:28:29,940
gaat heel veel gevolgen hebben. Als we kijken binnen bedrijven heb je ook heel veel data die
308
00:28:29,940 --> 00:28:36,780
je over de jaren hebt opgebouwd. Terwijl daar zeggen we vaak ja er zit een bepaalde houdbaarheid
309
00:28:36,780 --> 00:28:40,260
aan. Want de wereld er omheen verandert. De processen veranderen. Dus er is een bepaalde
310
00:28:40,260 --> 00:28:43,660
houdbaarheid. Maar dit soort berichten daar zit geen houdbaarheid aan vast. Daar word je gewoon
311
00:28:43,660 --> 00:28:47,900
mee om de oren geslagen. Jaren later. Inderdaad ik me eens dat sommige uitspraken misschien wel
312
00:28:47,900 --> 00:28:52,460
gewoon in de kern van de uitspraak zitten. Afhankelijk van de functie van die persoon
313
00:28:52,460 --> 00:28:56,340
bijvoorbeeld. Ja nee dat is zeker zo. En ik denk dat daarin inderdaad het recht op vergetelheid
314
00:28:56,340 --> 00:29:01,980
gewoon een heel erg ondergewaardeerd recht momenteel is. Wat eigenlijk de meeste mensen
315
00:29:01,980 --> 00:29:05,860
ook niet weten dat je dat kan doen. Waar dus in dat ook wel praktische en filosofische uitdagingen
316
00:29:05,860 --> 00:29:10,540
aan zitten. Maar wel de moeite waard om te gaan onderzoeken van hoe kan dat bijvoorbeeld ons
317
00:29:10,540 --> 00:29:13,900
helpen om anders te gaan nadenken over die digitale wereld en de sporen die we achterlaten.
318
00:29:13,900 --> 00:29:18,540
En bij het maken van het kunstwerk. Nou ja je hebt iets geleerd over je oma. Maar wat ja dat
319
00:29:18,540 --> 00:29:25,140
ga ik nooit meer vergeten. Een oma die houdt van Koreaanse horror. Heerlijk. Heb je iets bij het
320
00:29:25,140 --> 00:29:32,300
maken van het kunstwerk ook iets geleerd over AI als technologie? Dat is best een goede vraag
321
00:29:32,300 --> 00:29:40,860
eigenlijk. Misschien meer over Netflix als platform. Maar ik denk dat het ook wel raakt
322
00:29:40,860 --> 00:29:48,380
aan AI als technologie. Heel veel dingen zijn extreem willekeurig. Er wordt gewoon maar wat
323
00:29:48,380 --> 00:29:53,780
geprobeerd. Er wordt gewoon heel veel gepusht. Waarschijnlijk vindt ze dit leuk, vindt ze dat
324
00:29:53,780 --> 00:29:58,220
leuk. Het is natuurlijk allemaal wel aan de ene kant heel erg berekend. Maar aan de andere kant
325
00:29:58,220 --> 00:30:02,420
wordt er vooral heel erg geëxperimenteerd. We zijn natuurlijk een soort van proefkonijnen. En
326
00:30:02,420 --> 00:30:07,540
waarop wordt gehapt daar wordt op doorgegaan denk ik. En dat het vooral ook. Nou en ik denk dat het
327
00:30:07,540 --> 00:30:14,060
nog belangrijker om te zeggen is denk ik. Er wordt nu veel gesproken over die term kunstmatige
328
00:30:14,060 --> 00:30:20,100
intelligentie. Wat betekent intelligentie dan? En ik denk dat intelligentie momenteel,
329
00:30:20,100 --> 00:30:24,820
dat kunstmatige intelligentie eigenlijk überhaupt onze definitie van intelligentie verandert. Want
330
00:30:24,820 --> 00:30:31,700
dat gaat niet per se, dat gaat eigenlijk vanuit de industrie over het optimaliseren,
331
00:30:31,700 --> 00:30:37,900
over dat frictieloosheid, over het automatiseren. Slim gaat nu eigenlijk daarover. Hoe gaan we dingen
332
00:30:37,900 --> 00:30:43,140
efficiënter en sneller inrichten? Of jou daarbij helpen om dat te doen? En ik denk dat we daarmee
333
00:30:43,140 --> 00:30:48,700
überhaupt de definitie van wat slim is kwijt raken eigenlijk. Ik zou het bijvoorbeeld best
334
00:30:48,700 --> 00:30:53,260
wel intelligent vinden van een ChatGPT wanneer een kind vraagt van "Goh, wil je dit dit proefwerk
335
00:30:53,260 --> 00:30:59,660
voor me schrijven of dit boek voor me samenvatten?" Dat je een antwoord krijgt "Doe dat lekker zelf,
336
00:30:59,660 --> 00:31:03,700
want daar leer je van." Ja, dat zou een veel intelligente antwoord zijn. Ja, precies. Dus
337
00:31:03,700 --> 00:31:08,740
ik denk dat er een soort commerciële laag komt over überhaupt wat we definiëren als intelligentie.
338
00:31:08,740 --> 00:31:16,020
En dus ook als je daar, er wordt gewoon heel veel gezegd van "Ja, maar als je dat niet wilt,
339
00:31:16,020 --> 00:31:20,420
ja dan gaan we terug naar de middeleeuwen." Jeetje, wat zit daar tussen? Ik denk dat het gewoon prima
340
00:31:20,420 --> 00:31:28,540
is. We hebben echt gewoon best wel allemaal goed ter hersenen om te blijven nadenken zelf. En ook
341
00:31:28,540 --> 00:31:33,100
hoe leuk is het om soms zelf een keuze te maken? Hoe leuk is het om op ontdekking te gaan,
342
00:31:33,100 --> 00:31:37,820
om te zoeken, om tegen verwachtingen in te kiezen, om iets randoms te doen, zeg maar. Verrast te worden.
343
00:31:37,820 --> 00:31:43,580
Verrast te worden. Van fouten maken, zeiden ze, van fouten maken leer je. Maar eigenlijk kan het
344
00:31:43,580 --> 00:31:48,820
ook fouten maken inspireren, toch? Dat je iets doet wat onverwachts eruit komt, waarvan je denkt
345
00:31:48,820 --> 00:31:54,860
"Hé, maar dat is eigenlijk heel gaaf. Daar kan ik op voortborduren." Ja, maar de meeste ontdekkingen
346
00:31:54,860 --> 00:31:59,060
worden gedaan op de meest willekeurige momenten. En doordat ze eigenlijk iets anders wilden doen,
347
00:31:59,060 --> 00:32:03,940
maar god dit, weet je wel. Ja, ik denk dat als we dat gaan verliezen, dan denk ik echt "Ja,
348
00:32:03,940 --> 00:32:08,220
wat gaat het dan nog betekenen om mens te zijn?" En ik denk dat het gaat veel fundamenteler over
349
00:32:08,220 --> 00:32:13,420
gaat AI onze banen overnemen of gaat het slimmer worden dan ons? Wat dat dan ook mag betekenen. Nee,
350
00:32:13,420 --> 00:32:20,220
het gaat echt betekenen, voor mij gaat het echt over hoe willen we mens zijn en wat gaat het
351
00:32:20,220 --> 00:32:25,180
betekenen om mens te zijn in een data gedreven samenleving? Want als we geen fouten zouden
352
00:32:25,180 --> 00:32:28,620
maken, zouden we bijvoorbeeld volgens mij ook geen aspirine hebben. Dat was ook zo'n bijproduct.
353
00:32:28,620 --> 00:32:32,980
Nog wel veel meer dingen die zo ontstaan zijn. Daar begint innovatie. Wat ik toch wel nieuwsgierig
354
00:32:32,980 --> 00:32:38,940
naar was, die zit ook in de kunst natuurlijk en creativiteit. En er gaat ook wel eens een stelling
355
00:32:38,940 --> 00:32:42,980
van "AI ontneemt ons de creativiteit of we worden creatiever door AI." Hoe sta jij daarin?
356
00:32:42,980 --> 00:32:49,540
Ja, ik denk dat deze vraag zeker gesteld wordt sinds de opkomst van generatieve AI en dingen
357
00:32:49,540 --> 00:32:56,020
zoals DALI en ook het JIT-GPT. En ik denk aan de ene kant zie ik het echt gewoon als een tool,
358
00:32:56,020 --> 00:33:00,220
net zoals dat er heel veel andere dingen, zoals een Quest of Photoshop, tools zijn. En het is
359
00:33:00,220 --> 00:33:05,340
natuurlijk met iedere nieuwe uitvinding, met de fotografie werd gezegd, ja, we hebben nog wel
360
00:33:05,340 --> 00:33:09,660
portretschilders nodig, et cetera. En ik denk dat aan de ene kant, omarm ik het ook, ik denk
361
00:33:09,660 --> 00:33:17,140
vooral dat het gaat over transparant zijn, over hoe je het gebruikt, dat iets gemaakt wordt met
362
00:33:17,140 --> 00:33:22,620
generatieve AI bijvoorbeeld. Maar ook wat is het doel wat je ermee wil doen? Kijk, voor mij gaat
363
00:33:22,620 --> 00:33:27,700
het, ik ga me, ik bevast een onderzoek en ik ga daar maanden me in verdiepen en ik ga verschillende
364
00:33:27,700 --> 00:33:33,380
vormen proberen om daar materialiteit of vorm of een installatie uit te vormen. En als dat uiteindelijk
365
00:33:33,380 --> 00:33:40,980
met iets generatiefs is, is dat denk ik oké. Maar het gaat erom dat het niet is van, oh, ik heb een
366
00:33:40,980 --> 00:33:47,940
idee, ik zet wat parameters erin en het wordt eruit gerold. Maar dat je dat creatieve proces en die
367
00:33:47,940 --> 00:33:52,300
fouten en al die verschillende dingen daarin ook toelaat, omdat je dan denk ik tot de meest spannende
368
00:33:52,300 --> 00:33:57,180
dingen komt. Dat het niet zo resultaatgericht is van, hey, wat misschien soms wel kan als het gaat
369
00:33:57,180 --> 00:34:02,100
over, nou bijvoorbeeld een illustratie bij een krantenartikel, kan ik me voorstellen dat het
370
00:34:02,100 --> 00:34:06,300
heel makkelijk is om op te leunen. Al is het ook heel waardevol om bijvoorbeeld de visie van, of de
371
00:34:06,300 --> 00:34:12,420
mening of de interpretatie van een illustrator, van een mens op zo'n artikel erbij te hebben.
372
00:34:12,420 --> 00:34:17,540
Maakt dat niet ook zeg maar spannend. Dus ik denk dat het aan de ene kant een nieuwe tool is, die
373
00:34:17,540 --> 00:34:24,660
ook ja best wel prettig is en mooi is. Ik denk ook bijvoorbeeld dat het veel meer mensen het
374
00:34:24,660 --> 00:34:30,820
gemak geeft om in aanraking te komen met het creëren van iets. Voor mensen is het best wel een drempel,
375
00:34:30,820 --> 00:34:36,580
mensen vinden het best wel spannend. Ja, ik kan toch niet tekenen, ik kan toch niet schilderen.
376
00:34:36,580 --> 00:34:39,620
Weet je hoe vaak ik dat vraag? Als ik zeg ik ben kunstenaar, mensen zeggen, oh ja, ik vind
377
00:34:39,620 --> 00:34:46,540
schilderen ook heel leuk. Nee, maar kleien ook. Dus dat is natuurlijk toch goed. En ik zeg dan vaak,
378
00:34:46,540 --> 00:34:57,060
schilder begint met schuren. Stukken. Dus ik denk in die zin dat het natuurlijk ook voor mensen die
379
00:34:57,060 --> 00:35:07,580
het misschien spannend vinden om met een pen of een papier of met andere tools, of denk ik ken
380
00:35:07,580 --> 00:35:13,220
niet photoshop, dat natuurlijk ook makkelijk is om daarmee in aanraking te komen en dat het goed
381
00:35:13,220 --> 00:35:17,940
is om te creëren. Maar voor de partijen die eindeloos willen optimaliseren met bijvoorbeeld
382
00:35:17,940 --> 00:35:23,860
ja nog meer content eruit rollen met maar zo'n, dan denk ik van ja maar wie gaat al die content
383
00:35:23,860 --> 00:35:29,100
allemaal bekijken dan? Gaan we AI inzetten om alle content te maken die AI heeft gemaakt?
384
00:35:29,100 --> 00:35:33,300
Ja, dus ik ben daarin niet een soort van goed of kwaad. Het kan ook kunstenaars en ook schrijvers
385
00:35:33,300 --> 00:35:43,300
helpen om tot ideeën te komen. Ik ken mensen die het leren om te programmeren of om te sparren
386
00:35:43,300 --> 00:35:47,940
over een artikel. Maar inderdaad ja ik denk dat de uitwerking als je een creatief idee wilt hebben
387
00:35:47,940 --> 00:35:54,620
of een boek wil schrijven en je laat het meer een deel gewoon genereren door statistiek,
388
00:35:54,620 --> 00:35:59,540
ja dan gaan we nooit ergens nieuws komen. Want het wordt gewoon, het is een patroon van wat er al
389
00:35:59,540 --> 00:36:03,500
bestaat. Dus voor mij dan even, waar je bij binnenkomt, is dat moet je ondersteunen in je
390
00:36:03,500 --> 00:36:08,980
creativiteit en proces daarin. Laat het alsjeblieft niet je eigen creatief vervangen, maar vul het aan
391
00:36:08,980 --> 00:36:14,660
als hulpmiddel. Precies ja, ja als hulpmiddel, als tool. Denk erover na wat is het middel. Kijk ik
392
00:36:14,660 --> 00:36:22,620
denk dat we best wel trendgericht kijken naar de meeste technologieën. Oh nu is blockchain,
393
00:36:22,620 --> 00:36:27,940
oh nu is dit, oh nu is het weer dat. En mensen springen daar gewoon op, oh we moeten hier ook
394
00:36:27,940 --> 00:36:32,100
iets mee doen zonder na te denken over maar wat wil je er mee doen en wat is het doel en is dat
395
00:36:32,100 --> 00:36:36,100
wel de beste technologie daarvoor. En ik denk dat als bedrijven, als overheden, als mensen daar wat
396
00:36:36,100 --> 00:36:41,660
vaker over na zouden denken, zou dat denk ik wel heel erg wenselijk zijn. En over nadenken gesproken,
397
00:36:41,660 --> 00:36:50,460
daar hebben we een heel kaartspel voor gemaakt om over dingen na te denken, stellingen na te denken,
398
00:36:50,460 --> 00:36:57,620
die gaan over generatieve AI, wel in de zakelijke wereld, maar nou ja laten we eens kijken van
399
00:36:57,620 --> 00:37:04,260
welke stelling er voor jou getrokken wordt. Oh dit is dus totaal de willekeur van de,
400
00:37:04,260 --> 00:37:09,020
zeker. Je wilt er verrast van worden. Dat krijg je in de maak.
401
00:37:09,020 --> 00:37:14,860
Niels die leest hem voor. Volstrekt wil ik je gekozen uit de set die nog over was.
402
00:37:14,860 --> 00:37:37,260
Technologie en innovatie is de categorie en de stelling is automatische code generatie
403
00:37:37,260 --> 00:37:44,260
door generatieve AI zal de traditionele software ontwikkeling radicaal veranderen.
404
00:37:44,260 --> 00:37:49,340
Oh dit is zo'n technische vraag. Jeetje ja had ik nu maar. Nee. Ja ik weet niet zo goed wat ik hier
405
00:37:49,340 --> 00:38:00,540
moet zeggen, heel eerlijk gezegd. Ik kan me wel voorstellen dat het een bepaalde manier, waar we het
406
00:38:00,540 --> 00:38:05,140
ook al over hadden. Nou ja ik denk dat het ook heel erg op elkaar aansluit. Ik denk dat het ook
407
00:38:05,140 --> 00:38:09,900
in de software ontwikkeling zit en in de waarde van technologie dat het gaat om het optimaliseren
408
00:38:09,900 --> 00:38:15,660
en hoe kunnen we dingen verbeteren, helpen, hoe kunnen we meer data inzetten. Dus ik kan me ook
409
00:38:15,660 --> 00:38:21,020
voorstellen dat dat eigenlijk elkaar ook heel goed stimuleert. Ja je wil natuurlijk ook niet,
410
00:38:21,020 --> 00:38:26,540
nou misschien wil je ook. Zal ik je helpen? Ja. Want uiteindelijk is het ook een kaartspel waarbij
411
00:38:26,540 --> 00:38:32,500
je met elkaar dus je zegt ik ben het met eens, ben het on-eens. Dus ik zou hier in zekere zin eens
412
00:38:32,500 --> 00:38:42,140
zijn. Want wat je ziet is dat heel veel taken die wij maken met software is eigenlijk vrij
413
00:38:42,140 --> 00:38:50,740
repeterend. Dus alles wat je nou repeterend hebt, kan je dan heel makkelijk overlaten aan de AI en
414
00:38:50,740 --> 00:38:57,060
dat gaat echt radicaal veranderen. Dus dat alle saaie dingen hoef ik niet meer te doen. En er komt
415
00:38:57,060 --> 00:39:03,540
neer dat ik dus eigenlijk alleen nog de complexe dingen zelf moet gaan oplossen of echte innovatieve
416
00:39:03,540 --> 00:39:09,980
zaken die niet in zo'n model zitten. En dan kom ik eigenlijk terug van waarom ik überhaupt zeg maar
417
00:39:09,980 --> 00:39:15,660
ooit in de techniek terecht ben gekomen. Is omdat ik het leuk vind om complexe puzzels op te lossen,
418
00:39:15,660 --> 00:39:21,980
samen. Want het is mensenwerk uiteindelijk. Dus je bent heel veel in contact met je klant van wat
419
00:39:21,980 --> 00:39:28,140
wil je nou precies. Want pas als ik weet wat jij precies wil, wat jouw doel is. Je had het over
420
00:39:28,140 --> 00:39:33,020
doel. Als ik pas echt goed begrijp wat jouw doel is, dan kan ik de AI instrueren om een groot
421
00:39:33,020 --> 00:39:41,060
gedeelte daarvan te maken. Het laatste stukje toevoegen en hopelijk creëren we daarmee waarden
422
00:39:41,060 --> 00:39:47,700
die we ook voor ogen hadden. Ja, ik snap dat heel goed. Waar ik wel ook gelijk aan moet denken,
423
00:39:47,700 --> 00:39:56,380
is er zijn best wel veel taken bijvoorbeeld in mijn werk die best wel ook repetitief zijn.
424
00:39:56,380 --> 00:40:02,300
Zeg maar het meeste gaat inderdaad om nieuwe dingen bedenken en zo. Maar soms gaat het ook
425
00:40:02,300 --> 00:40:07,380
over heel veel stickers ergens uitsnijden of inderdaad weer een installatie ergens opbouwen.
426
00:40:07,380 --> 00:40:15,540
Niet per se de inspirerende dingen, maar ik denk dat ik mijn werk en dan denk ik soms van jeetje
427
00:40:15,540 --> 00:40:19,700
ben ik weer aan het slepen met dit soort dingen. Ben ik weer, heb ik een taakje voor mezelf bedacht
428
00:40:19,700 --> 00:40:23,460
om duizend vlaggetjes te snijden. Om die ergens in een werk te hangen. Maar toch denk ik dat je
429
00:40:23,460 --> 00:40:31,060
soms die dingen ook wel een beetje nodig hebt om het met elkaar uit te balanceren. Want je kan niet
430
00:40:31,060 --> 00:40:36,420
alleen maar met complexe vraagstukken bezig zijn. Dus ik denk dat soms vind ik die soort van
431
00:40:36,420 --> 00:40:40,660
meditatieve stand tussen gewoon een beetje die repetitie, gewoon zoveel vlaggetjes knippen of
432
00:40:40,660 --> 00:40:45,180
of zoveel balletjes beschrijven met een robot. Dat het rust geeft. Dat het ook rust geeft en dat
433
00:40:45,180 --> 00:40:51,580
het ook zeg maar een goede balans geeft in je hoofd soms. En daardoor dat je ook alweer op
434
00:40:51,580 --> 00:40:55,900
nieuwe ideeën komt. Als je vaak bijvoorbeeld naar de repetitie van een code krijgt, word je natuurlijk
435
00:40:55,900 --> 00:40:59,460
ook wel wat kritischer op. Maar ik denk dat het inderdaad klopt dat je heel veel dingen daarvan
436
00:40:59,460 --> 00:41:03,740
uit kan besteden. Ik besteed ook steeds meer wel uit, maar ik zou toch zeker niet alles daaruit
437
00:41:03,740 --> 00:41:08,420
weg willen halen. Ik herken het wel, want soms is het ook gewoon lekker om even de simpele taken
438
00:41:08,420 --> 00:41:12,420
te doen waar je gewoon kan zeggen check heb ik gedaan is afgevinkt. In plaats van alleen maar
439
00:41:12,420 --> 00:41:16,300
die complexe zaken op te lossen. Die wel meer energie geven dan inderdaad de repeterende
440
00:41:16,300 --> 00:41:21,380
taken. Maar ik herken het wel inderdaad. Ja of misschien een beetje dat je denkt inderdaad van
441
00:41:21,380 --> 00:41:25,140
nou dat doe je inderdaad 80% wel van inderdaad genereren. Maar een deel daarvan zet je bijvoorbeeld
442
00:41:25,140 --> 00:41:33,100
zelf in gang. Mooi mooi antwoord. Dank je wel. In de intro gaf je aan van je bent ook bezig met
443
00:41:33,100 --> 00:41:53,300
rechtszaken. Tegen behoorlijke tegenstanders volgens mij. Zou je daar nog iets over kunnen
444
00:41:53,300 --> 00:41:59,980
vertellen aan ons? Ja zeker. Ik werk dus samen met Stichting Data Bescherming Nederland. Dat is
445
00:41:59,980 --> 00:42:05,900
een organisatie die zich inzet eigenlijk voor internetvrijheid en vooral ook tegen de data
446
00:42:05,900 --> 00:42:13,860
verzamelpraktijken van big tech bedrijven. Omdat ze dat op grote schaal doen wat helemaal niet mag,
447
00:42:13,860 --> 00:42:19,140
maar toch wel vaak ongezien gebeurt jarenlang. Dus ik werk voor hun als ambassadeur. Dus ik
448
00:42:19,140 --> 00:42:26,620
doe veel met de onderzoeken van wat gebeurt er nou eigenlijk. Maar vooral ook hoe gaan we mensen
449
00:42:26,620 --> 00:42:31,020
laten zien wat er gebeurt. Maar ook waarom is het belangrijk dat we hier iets tegen doen. Dus
450
00:42:31,020 --> 00:42:35,780
bijvoorbeeld we hebben een rechtszaak tegen X. X die had namelijk een soort dochteronderneming,
451
00:42:35,780 --> 00:42:44,380
een ad tech bedrijf die een SDK, dus een soort cookie technologie voor apps, plaatste in ruim
452
00:42:44,380 --> 00:42:51,380
30.000 gratis apps om daar alle persoonsgegevens en gebruikersdata eigenlijk uit te trekken en met
453
00:42:51,380 --> 00:42:57,780
elkaar te combineren. Zonder dat je het weet neem ik aan. Zonder dat je het weet. Ze beroepen zich
454
00:42:57,780 --> 00:43:03,020
dan inderdaad op nou je hebt toestemming gegeven. Maar goed in zo'n term als toestemming moeten
455
00:43:03,020 --> 00:43:08,100
bijvoorbeeld ook wel, er zitten wat voorwaarden aan dat bijvoorbeeld die toestemming vrijwillig
456
00:43:08,100 --> 00:43:11,380
is. Nou vaak krijg je geen toegang voor een app als je geen toestemming geeft. Dus hoe vrijwillig
457
00:43:11,380 --> 00:43:16,060
is dat. Maar ook ja je kan totaal niet weten waar je toestemming voor geeft of dat dus bijvoorbeeld
458
00:43:16,060 --> 00:43:20,980
als jij buienradar installeert of Shazam of Happn of Grindr en al die grote gratis apps die iedereen
459
00:43:20,980 --> 00:43:27,100
wel gebruikt. Dat je daarmee dus ook data met Twitter of inmiddels met X. Oké buienradar ook
460
00:43:27,100 --> 00:43:33,500
ja? Ja echt alle grote gratis apps. Sodoku, buienradar, Shazam, Happn, Vinted, Talking Tom,
461
00:43:33,500 --> 00:43:41,380
het gaat de Bijbel app, religieuze dingen, heel veel van die menstruatietrekkers, sport apps,
462
00:43:41,380 --> 00:43:49,580
weet je wel van hardlopen. Echt dingen die bijna iedereen wel gebruikt. Dus wij dachten ja dat
463
00:43:49,580 --> 00:43:55,860
dat mag niet. Dat wordt ook ja. Wat gaan we er tegen doen? We kunnen erover blijven, kunst maken
464
00:43:55,860 --> 00:44:02,660
en schrijven. De voorzitter van onze stichting is voorheen data journalist geweest. En ja hoe gaan
465
00:44:02,660 --> 00:44:10,260
we hierop acteren? Hoe gaan we ook mensen eigenlijk mobiliseren om op te komen voor hun rechten? Want
466
00:44:10,260 --> 00:44:14,860
het is gewoon niet een individueel probleem. Het is ook niet stop met X of boycott Facebook of
467
00:44:14,860 --> 00:44:21,100
gebruik geen buienradar. Het is echt een fundamenteel systematisch probleem in ons informatielandschap en
468
00:44:21,100 --> 00:44:26,900
in onze technologie. Dus we doen daardoor die rechtszaken om ze ter verantwoording te roepen,
469
00:44:26,900 --> 00:44:32,020
om te verzoeken de data te verwijderen, om dit systeem totaal te veranderen zodat het gewoon
470
00:44:32,020 --> 00:44:38,260
niet meer mogelijk is om op zo'n grote schaal illegaal data te verzamelen. En we strijden ook
471
00:44:38,260 --> 00:44:42,180
voor een schadevergoeding voor alle gebruikers. Dus het zijn voor de Twitterzaak ruim 11 miljoen
472
00:44:42,180 --> 00:44:47,020
Nederlanders. Ja pittig. En zie je ook reacties? Van mensen of vanuit de industrie? Beiden. Ja,
473
00:44:47,020 --> 00:44:55,940
nou twee weken geleden zat ik in de rechtbank tegenover Amazon. Dat was de eerste hoorzitting.
474
00:44:55,940 --> 00:45:03,420
En wat ten eerste best wel interessant is dat advocaten van Amazon zich vooral beroepen op
475
00:45:03,420 --> 00:45:10,060
ja deze stichting die is alleen maar op het geld uit en die moeten we niet zo serieus nemen. Ik
476
00:45:10,060 --> 00:45:14,860
denk nou ja jullie verdedigen de rijkste man ter wereld. Maar goed. Als ik geld had willen verdienen
477
00:45:14,860 --> 00:45:20,460
had ik nu geen kunstenaar geworden. En ook geen activist. Maar ik denk dus wat daarin heel
478
00:45:20,460 --> 00:45:29,020
interessant is, is dat zij zeggen van ja nee maar ja wij zijn maar gewoon een retailer. Wij
479
00:45:29,020 --> 00:45:34,940
willen gewoon graag mensen producten verkopen. We willen graag mensen de beste prijs geven en
480
00:45:34,940 --> 00:45:39,820
iedereen op maat gemaakte advertenties geven. Zodat iedereen zijn of haar gewenste product
481
00:45:39,820 --> 00:45:44,420
kan winnen. Ja, komen allemaal naar onze happy space. Ja, en ik denk we hebben net zes uur lang
482
00:45:44,420 --> 00:45:48,980
over en weer tussen ons advocaat gediscussieerd over mensenrechten, over schending daarvan,
483
00:45:48,980 --> 00:45:55,460
over autonomie op het internet. En dan wordt altijd alleen gezegd hoe serieus neem je deze
484
00:45:55,460 --> 00:45:59,980
zaak. Heb je door überhaupt wat jullie aan het doen zijn hierin. En ook hoe indringend zo'n
485
00:45:59,980 --> 00:46:05,460
systeem eigenlijk is. Dus dat vind ik wel ja best wel interessant ook om te zien. Het is voor mij ook
486
00:46:05,460 --> 00:46:13,140
wel ontzettend leerzaam en interessant om zo'n zaak mee te maken natuurlijk. En wat er allemaal
487
00:46:13,140 --> 00:46:17,140
gebeurt. En reacties verder. Nou bijvoorbeeld ja we moeten dus even afwachten wat de uitspraak
488
00:46:17,140 --> 00:46:25,060
van de rechter is op dit gebied. Op 13 november krijgen we daar wat meer over te horen. En weten
489
00:46:25,060 --> 00:46:30,420
we dus ook of de zaak door kan gaan op deze manier. Dat is eigenlijk de eerste stap. En vanuit daar
490
00:46:30,420 --> 00:46:34,620
gaan we het hebben over de inhoudelijke zaken. Maar nu bepleit je zeg maar aan een rechter,
491
00:46:34,620 --> 00:46:40,820
klopt dat? Of het een zaak moet worden of niet. Ja, dus wij voeren een massaclaim. En daarin
492
00:46:40,820 --> 00:46:48,620
moeten we voldoen aan heel veel eisen. Dus aan claimcodes maar ook. En omdat dus Amazon eigenlijk
493
00:46:48,620 --> 00:46:56,180
ons beticht van jullie zijn niet de juiste organisatie om dit te doen. Moet de rechter
494
00:46:56,180 --> 00:47:01,860
dus eigenlijk dat eerst onderzoeken. Ook of zij zelf bevoegd zijn. Of de rechtbank van
495
00:47:01,860 --> 00:47:06,900
Rotterdam bevoegd is om deze zaak. Maar dat is natuurlijk super interessant. Want dit
496
00:47:06,900 --> 00:47:11,820
rekt ontzettend veel tijd. En dat is natuurlijk het hele doel. Want elke dag dat deze zaak
497
00:47:11,820 --> 00:47:17,260
langer duurt, verdient Amazon ontzettend veel geld. Met deze hele business. Dus goed. Maar
498
00:47:17,260 --> 00:47:24,220
ja, dus ik kan nog niet veel vertellen over wat daar verder van uitspraak over gebeurt. Ik denk wel
499
00:47:24,220 --> 00:47:29,860
dat wij hebben getoond dat wij totaal onafhankelijk zijn. Dat we inderdaad procesfinanciers hebben.
500
00:47:29,860 --> 00:47:36,340
Want ja, je kan niet aankomen met een stel vrijwilligers om het op te nemen tegen de
501
00:47:36,340 --> 00:47:40,140
rijkste en machtigste bedrijven ter wereld. En dat we daar inderdaad met een grootste advocaten,
502
00:47:40,140 --> 00:47:46,460
en een bestuur, en mij als ambassadeur, en een campagne team heel hard aan werken om eigenlijk
503
00:47:46,460 --> 00:47:52,100
die boodschappen de wereld in te krijgen. Dus ook online campagnes. Bijvoorbeeld op Instagram
504
00:47:52,100 --> 00:47:55,700
geven we steeds meer mensen ook tips over hoe kan je bijvoorbeeld zo'n verwijderverzoek doen.
505
00:47:55,700 --> 00:48:00,980
Hoe vraag je je data op? Wat betekent eigenlijk incognito-modus? Wat is het verschil met
506
00:48:00,980 --> 00:48:06,580
anonimiteit? En allemaal dat soort dingen proberen we antwoord op te geven. Mensen te helpen. Ik ga
507
00:48:06,580 --> 00:48:12,900
ook maandelijks de straat op om mensen te vragen hoe bescherm jij je privacy? Wat zijn dan de
508
00:48:12,900 --> 00:48:18,420
reacties die je krijgt? Oh, heel divers. Ik vind het ontzettend leuk om te doen. Aan de ene kant
509
00:48:18,420 --> 00:48:22,540
mensen, ja, ik probeer weleens koekjes te weigeren, maar goed, ja, je wilt gewoon door. Of inderdaad
510
00:48:22,540 --> 00:48:28,100
mensen die zeggen, ja, ik heb toch niks te verbergen. Het zou je verbazen, het wordt gezegd.
511
00:48:28,100 --> 00:48:33,460
Of mensen, ja, en de democratie is ten einde. Iedereen loopt leeg. Ik vind het vooral heel leuk.
512
00:48:33,460 --> 00:48:41,420
Kijk, ik ben hier al sinds 2016 aan aan het werk aan het thema. En toen ik toen zei van onze privacy
513
00:48:41,420 --> 00:48:47,300
is een handelswaar. Er gaat echt fundamenteel iets mis op het internet. Krijg ik alleen maar
514
00:48:47,300 --> 00:48:51,740
reacties met nou ten eerste wie ben jij als 21-jarig meisje wat hier iets over te zeggen
515
00:48:51,740 --> 00:48:56,460
heeft. En ja, wie boeit het iets? Mark Zuckerberg was nog een held. Er was nog weinig schandalen.
516
00:48:56,460 --> 00:49:02,420
En dat überhaupt mensen hier al een mening over vormen, welke mening het dan ook is,
517
00:49:02,420 --> 00:49:08,060
vind ik echt win. Dat er echt wel veel beter een gesprek over te voeren is. En ook mensen die nou
518
00:49:08,060 --> 00:49:15,460
echt enthousiast worden van dit is zo belangrijk. En inderdaad, ik voel me soms zo machteloos en ik
519
00:49:15,460 --> 00:49:20,420
wil er wel iets tegen doen. En ik denk wel eens soms moet ik het wel accepteren. Maar goed,
520
00:49:20,420 --> 00:49:23,860
wat moet je ook doen als burger? En dat is ook ons hele punt. Ja, het is belangrijk om na te
521
00:49:23,860 --> 00:49:30,540
denken over waar geef je toestemming voor? Kan je bijvoorbeeld koekjes weigeren? Zijn het nou in
522
00:49:30,540 --> 00:49:34,740
onze MSO? Soms is het dus gebleken dat in heel veel websites als je koekjes weigert,
523
00:49:34,740 --> 00:49:39,100
ze die alsnog plaatsen. Dus ja, je kan je inlezen, je kan media wijs worden, je kan ontzettend veel
524
00:49:39,100 --> 00:49:48,420
doen als burger. Je kan denken misschien signalen in plaats van WhatsApp, misschien Firefox. Je kan
525
00:49:48,420 --> 00:49:53,420
echt wel dingen doen, maar het is niet een individueel probleem. En daarom is de oplossing
526
00:49:53,420 --> 00:49:57,660
ook niet jij die je anders gaat gedragen. Dat is een stukje, dat is een onderdeel ervan. Maar
527
00:49:57,660 --> 00:50:02,060
het is echt een systematisch probleem. Je zegt het is niet alleen. Zien we ook andere landen
528
00:50:02,060 --> 00:50:06,780
wereldwijd die hier ook mee bezig zijn? Helaas heel weinig. En dat heeft er vooral mee te maken
529
00:50:06,780 --> 00:50:13,620
dat het doen van een massaclaim niet overal kan. Een paar jaar geleden is dat in Nederland aangepast
530
00:50:13,620 --> 00:50:18,700
dat je een indicatie mag nemen van het aantal slachtoffers en dat je daarvoor in mag gaan
531
00:50:18,700 --> 00:50:24,020
staan. Maar daarvoor was het dus zo dat je nou stel bijvoorbeeld je doet het in naam van 10 miljoen
532
00:50:24,020 --> 00:50:28,940
Nederlanders, dan moet je daar een handtekening van hebben voordat je zo'n zaak start. Nou,
533
00:50:28,940 --> 00:50:33,300
het is natuurlijk onmogelijk. Het is aangepast. En in de meeste landen in Europa kan dat niet.
534
00:50:33,300 --> 00:50:38,380
En in andere landen heb je natuurlijk überhaupt niet zoiets als de AVG waarop je je kan beroepen.
535
00:50:38,380 --> 00:50:42,220
Dus nog heel erg weinig. Daarom is het ook zo ontzettend belangrijk dat we dit doen,
536
00:50:42,220 --> 00:50:47,100
omdat het heel toonaangevend kan zijn ook überhaupt voor de toekomst van jurisprudentie over dit soort
537
00:50:47,100 --> 00:50:53,700
zaken en voor rechtszaken in de toekomst hopelijk. Want ja, ik hoop wel dat we een signaal kunnen
538
00:50:53,700 --> 00:51:00,180
afgeven van dit is gewoon niet meer wat we gaan doen. Daarom een klein oproepje als dat mag.
539
00:51:00,180 --> 00:51:05,260
Zeker.
540
00:51:05,260 --> 00:51:05,760
Mensen kunnen zich dus ook aanmelden voor de zaak. Door de rechtszaak te steunen kan je dus
541
00:51:05,760 --> 00:51:10,660
aangeven van ik ben het hier ook niet mee eens. Ik wil mijn privacy, ik wil mijn rechten terug.
542
00:51:10,660 --> 00:51:15,540
En dat kan je helemaal gratis doen. Wij doen hiervoor het werk. Je kunt je aanmelden op
543
00:51:15,540 --> 00:51:20,260
stichtingdatabescherming.nl of je staat te koop. En dan kan je ook even kijken van,
544
00:51:20,260 --> 00:51:26,780
goh wil ik dat doen voor elke zaak of voor een van de zaken.
545
00:51:26,780 --> 00:51:28,940
Nou wij zullen het in ieder geval opnemen in de show note. Ik denk dat het hartstikke mooi
546
00:51:28,940 --> 00:51:34,660
werk is. Ik denk dat we ook heel veel inzicht hebben gekregen in waar je mee bezig bent,
547
00:51:34,660 --> 00:51:39,540
wat dat allemaal betekent. Dus dank je wel Julia voor dit buitengewoon interessante gesprek.
548
00:51:39,540 --> 00:51:44,700
Dank jullie wel.
549
00:51:44,700 --> 00:51:45,540
Ik breek nog even in, want Julia wilde natuurlijk ook wel even laten weten waar
550
00:51:46,340 --> 00:51:52,380
je dit kunstwerk in Nederland zou kunnen zien.
551
00:51:52,380 --> 00:51:54,340
En denk je nou ik ben benieuwd om dit werk even te zien? Nou dat kan,
552
00:51:54,340 --> 00:51:58,020
want tussen 20 en 27 oktober is het werk te zien op Dutch Design Week bij de
553
00:51:58,020 --> 00:52:03,340
Embassy of Digital Futures.
554
00:52:03,340 --> 00:52:04,820
Hartstikke goed. Kunnen mensen ergens dat terugvinden?
555
00:52:04,820 --> 00:52:08,380
Ja op de website studiojuliajanssen.com en mijn Instagram deel ik eigenlijk alles over waar ik
556
00:52:08,380 --> 00:52:14,500
heen ga. En op de website van Design Week staat ook het hele programma.
557
00:52:14,500 --> 00:52:17,900
Wow die stond open. Dat gebeurt nog wel eens.
558
00:52:17,900 --> 00:52:23,860
Ja joh.
559
00:52:23,860 --> 00:52:24,660
Fijn dat je weer luisterde naar deze aflevering van AIToday Live.
560
00:52:24,660 --> 00:52:28,380
Wil jij ook discussiëren over stellingen met het kaartspel?
561
00:52:28,380 --> 00:52:33,060
Die kan je gewoon bij ons, ook in de show note staat een linkje naar het kaartspel.
562
00:52:33,060 --> 00:52:37,660
Kun je hem gratis bestellen. Krijg je hem gewoon gratis thuis gestuurd.
563
00:52:37,660 --> 00:52:40,380
Hebben we wel eventjes je adresgegevens nodig, anders krijgen we hem natuurlijk niet thuis.
564
00:52:40,380 --> 00:52:44,460
Maar daar doen we verder niets mee behalve dat je je kaartspel krijgt.
565
00:52:44,460 --> 00:52:50,220
Tot de volgende keer.
566
00:52:50,220 --> 00:52:51,500
Tot de volgende keer!
567
00:52:51,500 --> 00:52:53,500
.
568
00:52:53,500 --> 00:53:13,900
.