AIToday Live

S06E57 - "Big Tech zegt nee!" - Als AI beslist over jouw gezondheid met Jeanine Ros (Women on Web)

July 15, 2024 Aigency by Info Support Season 6 Episode 57
S06E57 - "Big Tech zegt nee!" - Als AI beslist over jouw gezondheid met Jeanine Ros (Women on Web)
AIToday Live
More Info
AIToday Live
S06E57 - "Big Tech zegt nee!" - Als AI beslist over jouw gezondheid met Jeanine Ros (Women on Web)
Jul 15, 2024 Season 6 Episode 57
Aigency by Info Support

In deze aflevering van AIToday Live staat het belangrijke en vaak onbesproken onderwerp van reproductieve rechtvaardigheid en toegang tot abortus in het digitale tijdperk centraal. Gast Jeanine Ros, socioloog en ontwerper, deelt haar inzichten over de uitdagingen en obstakels die vrouwen wereldwijd ondervinden bij het zoeken naar informatie en hulp rondom abortus.

Ze belicht hoe online censuur en algoritmes van grote techbedrijven de toegang tot essentiële medische informatie beperken. Jeanine's onderzoek en ervaringen werpen een kritisch licht op de invloed van technologie op sociale ongelijkheden en bieden een diepgaande blik op de strijd voor digitale rechten en toegankelijkheid van gezondheidszorg.



Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

Show Notes Transcript

In deze aflevering van AIToday Live staat het belangrijke en vaak onbesproken onderwerp van reproductieve rechtvaardigheid en toegang tot abortus in het digitale tijdperk centraal. Gast Jeanine Ros, socioloog en ontwerper, deelt haar inzichten over de uitdagingen en obstakels die vrouwen wereldwijd ondervinden bij het zoeken naar informatie en hulp rondom abortus.

Ze belicht hoe online censuur en algoritmes van grote techbedrijven de toegang tot essentiële medische informatie beperken. Jeanine's onderzoek en ervaringen werpen een kritisch licht op de invloed van technologie op sociale ongelijkheden en bieden een diepgaande blik op de strijd voor digitale rechten en toegankelijkheid van gezondheidszorg.



Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:05,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:05,000 --> 00:00:10,000
Ik zeg wel vaker we hebben een speciale aflevering, maar we hebben nu echt een speciale aflevering.

3
00:00:10,000 --> 00:00:15,000
Want we hebben het natuurlijk best wel heel vaak over AI in de zakelijke markt.

4
00:00:15,000 --> 00:00:19,000
Maar we gaan het vandaag over, nou eigenlijk wel iets anders vinden.

5
00:00:19,000 --> 00:00:22,000
En zo belangrijk dat ik deze gast heb uitgenodigd,

6
00:00:22,000 --> 00:00:27,000
te zeggen van kom het verhaal vertellen, want ik denk dat dit van iedereen van belang is.

7
00:00:27,000 --> 00:00:30,000
Mijn naam is Joop Snijder, CTO bij Aigency.

8
00:00:30,000 --> 00:00:33,000
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

9
00:00:33,000 --> 00:00:39,000
En onze gast is Jeanine Ros. Jeanine, zou je jezelf willen voorstellen aan de luisteraar?

10
00:00:39,000 --> 00:00:44,000
Zeker, ik ben Jeanine, ik woon in Rotterdam, ik ben socioloog en ontwerper.

11
00:00:44,000 --> 00:00:53,000
En ik ben eigenlijk een activist op de productieve rechtvaardigheid en sociale ongelekenheden in gezondheidszorg.

12
00:00:53,000 --> 00:01:01,000
Ja, en het gaat eigenlijk over, reproductief gaat over krijgen van baby's.

13
00:01:01,000 --> 00:01:05,000
Precies. Ja, de keuze van wil ik dat of wil ik dat niet.

14
00:01:05,000 --> 00:01:08,000
Ja, precies. En daar heb je onderzoek naar gedaan.

15
00:01:08,000 --> 00:01:11,000
Ik heb hem je even voorgezet, want anders vergeten we het.

16
00:01:11,000 --> 00:01:14,000
Het is 'Bodies bound by barriers, a digital perspective'.

17
00:01:14,000 --> 00:01:17,000
En wij gaan sowieso je rapport opnemen in de show notes.

18
00:01:17,000 --> 00:01:24,000
Zou je in het kort kunnen vertellen waarom je aan dit onderzoek bent begonnen?

19
00:01:24,000 --> 00:01:29,000
En wat is eigenlijk het basisprobleem, mogen we wel zeggen, toch?

20
00:01:29,000 --> 00:01:35,000
Ja, ik ben begonnen in 2019 toen ik bij Women on Web ging werken.

21
00:01:35,000 --> 00:01:40,000
Dat is een feministische non-profit organisatie die gevestigd is in Amsterdam.

22
00:01:40,000 --> 00:01:44,000
En zij zorgen voor wereldwijde toegang tot online abortus.

23
00:01:44,000 --> 00:01:47,000
Dus als je bijvoorbeeld in een land woont waar het illegaal is,

24
00:01:47,000 --> 00:01:51,000
of je hebt een partner die niet wil dat je een abortus krijgt,

25
00:01:51,000 --> 00:01:56,000
of er zijn heel veel obstakels waar je tegenaan kan lopen in die zin.

26
00:01:56,000 --> 00:02:02,000
En Women on Web zorgt er dus voor dat je online de pillen kan bestellen die je nodig hebt.

27
00:02:02,000 --> 00:02:07,000
Het is niet zo dat je de pillen bestelt en geen hulp krijgt.

28
00:02:07,000 --> 00:02:11,000
Ze zijn er eigenlijk, ze zijn een beetje de online dokter voor je.

29
00:02:11,000 --> 00:02:16,000
Dit heet ook telemedicine, dus medicijnen via de telefoon.

30
00:02:16,000 --> 00:02:21,000
Dus je hebt eigenlijk altijd iemand aan de lijn die je kan bellen tijdens het proces.

31
00:02:21,000 --> 00:02:26,000
En zij zorgen dus al sinds 2005 voor 100.000 bestellingen.

32
00:02:26,000 --> 00:02:30,000
Dus dat zijn 100.000 mensen die de service gebruiken.

33
00:02:30,000 --> 00:02:36,000
Dus ik was toen in 2019 begonnen met hun site, hun website opnieuw opknappen.

34
00:02:36,000 --> 00:02:41,000
En toen zei ik, ik wil ook een site opnemen, ik wil ook een site opnemen.

35
00:02:41,000 --> 00:02:43,000
En toen zei ik, ik wil ook een site opnemen.

36
00:06:15,000 --> 00:06:21,000
Dus het was eigenlijk op een ongelukbasis gevonden dat het als medicatie kon werken.

37
00:06:21,000 --> 00:06:23,000
En toen was het heel even op de markt.

38
00:06:23,000 --> 00:06:30,000
En toen dacht de overheid van heel veel landen van, dit is niet per se hoe wij...

39
00:06:30,000 --> 00:06:35,000
Dit mag niet in ons soort idee van...

40
00:06:35,000 --> 00:06:39,000
Abortus is gewoon een soort heel geladen onderwerp voor heel veel landen.

41
00:06:39,000 --> 00:06:41,000
Dus ze dachten, oké, wacht, we gaan dit even terughouden.

42
00:06:41,000 --> 00:06:44,000
Totdat het getest is dat het ook veilig is.

43
00:06:44,000 --> 00:06:47,000
En dan had de FDA inderdaad gezegd, ja, het is veilig.

44
00:06:47,000 --> 00:06:51,000
En de World Health Organization heeft dus ook gezegd dat het een essential medicine is.

45
00:06:51,000 --> 00:06:54,000
Sinds 2020 volgens mij.

46
00:06:54,000 --> 00:06:58,000
Ik ben een beetje mijn verhaal verloren.

47
00:06:58,000 --> 00:07:00,000
Dat we waren bezig met...

48
00:07:00,000 --> 00:07:02,000
Ja, dat is een goede vraag.

49
00:07:02,000 --> 00:07:04,000
Dat is een hele goede vraag.

50
00:07:04,000 --> 00:07:06,000
We zijn deze kant ineens opgemaakt.

51
00:07:06,000 --> 00:07:09,000
We zitten ademloos naar je te luisteren.

52
00:07:09,000 --> 00:07:11,000
De vraag was...

53
00:07:11,000 --> 00:07:16,000
We kwamen volgens mij, maar dat is al wel weer een tijdje terug, in de lijst van onderwerpen...

54
00:07:16,000 --> 00:07:20,000
Waardoor die inderdaad niet naar voren kwam, niet getoond werd.

55
00:07:20,000 --> 00:07:24,000
Dat je daar niet zomaar achter komt, maar dat je daar een paar stappen voor hebt moeten zetten.

56
00:07:24,000 --> 00:07:25,000
Precies.

57
00:07:25,000 --> 00:07:32,000
Dus je denkt, je hebt een lijst van, je mag het niet hebben over wapens, over gevaarlijke dingen, zeg maar.

58
00:07:32,000 --> 00:07:36,000
En over roken, alcohol gebruik.

59
00:07:36,000 --> 00:07:39,000
Je krijgt gewoon een hele hoop termen van dingen die niet mogen.

60
00:07:39,000 --> 00:07:42,000
Een beetje wat je ziet als je naar het vliegveld gaat, wat niet in je tas mag.

61
00:07:42,000 --> 00:07:44,000
Dat soort dingen.

62
00:07:44,000 --> 00:07:47,000
En dan vraag je je dan af, wat is hier dan zo gevaarlijk aan?

63
00:07:47,000 --> 00:07:52,000
Dit is informatie die wel klopt.

64
00:07:52,000 --> 00:07:55,000
En het is gewoon bewezen door heel veel onderzoek.

65
00:07:55,000 --> 00:07:58,000
En we hebben zoveel mensen kunnen helpen hiermee.

66
00:07:58,000 --> 00:08:00,000
Wat is dan eigenlijk het probleem?

67
00:08:00,000 --> 00:08:02,000
Dus die kant ging dan op.

68
00:08:02,000 --> 00:08:08,000
Ik was dus bezig met sociale media, maar ik was toch meer geïnteresseerd in wat we posten en wat mensen niet zagen.

69
00:08:08,000 --> 00:08:11,000
Want dat is juist het kern van mijn onderzoek.

70
00:08:11,000 --> 00:08:18,000
Dat je met een post weghalen, dan raak je mensen niet, maar ze weten niet dat ze het niet geraakt worden.

71
00:08:18,000 --> 00:08:26,000
Want je zegt, er is feitelijke informatie, maar die wordt op een manier door de algoritmes tegengehouden.

72
00:08:26,000 --> 00:08:32,000
Zodat mensen niet geïnformeerd worden over feitelijke medische informatie.

73
00:08:32,000 --> 00:08:34,000
Klopt, ja.

74
00:08:34,000 --> 00:08:37,000
Dus daar was mijn interesse dan opgewekt.

75
00:08:37,000 --> 00:08:39,000
Daardoor was mijn interesse opgewekt.

76
00:08:39,000 --> 00:08:44,000
En toen ging ik mijn scriptie schrijven voor mijn studie, sociologie.

77
00:08:44,000 --> 00:08:47,000
En ik dacht, dit raakt me heel erg.

78
00:08:47,000 --> 00:08:49,000
Ik zit ook een beetje achter de schermen.

79
00:08:49,000 --> 00:08:54,000
Ik zit in een hele unieke positie, dat ik die cijfers kan zien.

80
00:08:54,000 --> 00:08:59,000
En ik leef echt deze realiteit van censorship.

81
00:08:59,000 --> 00:09:02,000
Dus ik dacht, ik ga hierover schrijven.

82
00:09:02,000 --> 00:09:09,000
En toen had ik na mijn scriptietijd een artikel geschreven, dat het een beetje toegankelijker kon zijn.

83
00:09:09,000 --> 00:09:11,000
Want mijn scriptie was wel wat technischer.

84
00:09:11,000 --> 00:09:17,000
En het ging ook heel veel over de casus zelf, maar niet echt over de kern van het onderwerp.

85
00:09:17,000 --> 00:09:20,000
En echt een soort call to action van, wat kunnen we hiermee?

86
00:09:20,000 --> 00:09:22,000
Dat had ik niet echt in mijn scriptie zitten.

87
00:09:22,000 --> 00:09:24,000
Dus vandaar dat artikel.

88
00:09:24,000 --> 00:09:31,000
En ik ben bezig met, of ik ga in september beginnen met een masterstudie, om dit verder nog uit te zoeken.

89
00:09:31,000 --> 00:09:36,000
Want die algoritmes veranderen wel, ook best wel snel.

90
00:09:36,000 --> 00:09:41,000
Ze zien ook hoeveel mensen hier last van hebben.

91
00:09:41,000 --> 00:09:44,000
Dus niet alleen onze organisatie, maar honderden organisaties.

92
00:09:44,000 --> 00:09:48,000
En we hebben nu ook een soort platform gecreëerd, Repro Uncensored heet dat.

93
00:09:48,000 --> 00:09:51,000
Reproductive Healthcare Uncensored.

94
00:09:51,000 --> 00:09:59,000
En dat is een nieuwe platform om samen te werken met andere organisaties, om hier meer bewustheid over te creëren.

95
00:09:59,000 --> 00:10:06,000
En wie bepaalt dan uiteindelijk dat zo'n algoritme de post niet laat zien?

96
00:10:06,000 --> 00:10:14,000
Is dat de overheid van op dat moment, waar die zoekactie plaatsvindt?

97
00:10:14,000 --> 00:10:22,000
Is het de provider van, zijn dat inderdaad de Google's en de meta's die dat doen?

98
00:10:22,000 --> 00:10:25,000
Wie zorgen voor dit soort censuur?

99
00:10:25,000 --> 00:10:32,000
Nou dat is het lastige hieraan, is dat Instagram niet per se een overheid heeft.

100
00:10:32,000 --> 00:10:35,000
Het is een eigen overheid in die zin.

101
00:10:35,000 --> 00:10:38,000
Wie bepaalt wat gezien wordt en wat niet.

102
00:10:38,000 --> 00:10:40,000
Het is ook wel lokaal bepaald.

103
00:10:40,000 --> 00:10:45,000
In Korea bijvoorbeeld, dan hebben ze onze site op de bloklist gezet.

104
00:10:45,000 --> 00:10:48,000
In Zuid-Korea. En in Spanje was dat ook lang zo.

105
00:10:48,000 --> 00:10:51,000
Dus het gaat niet per se alleen om Instagram, maar ook over Google.

106
00:10:51,000 --> 00:10:56,000
Dus je hebt soms te maken met lokale casussen, van Spanje bijvoorbeeld.

107
00:10:56,000 --> 00:11:03,000
Of je hebt te maken met de politiek over het algemeen, op welke kant gaan we op.

108
00:11:03,000 --> 00:11:13,000
En in 2022, precies op deze dag, was Roe vs. Wade, dat was een landmark decision van 1973,

109
00:11:13,000 --> 00:11:16,000
om abortus te legaliseren in Amerika.

110
00:11:16,000 --> 00:11:19,000
En dat was twee jaar geleden vandaag teruggedraaid.

111
00:11:19,000 --> 00:11:24,000
Dus eigenlijk hebben we gezien dat sinds 2020, op precies deze dag,

112
00:11:24,000 --> 00:11:31,000
hebben we zoveel meer last gehad van censorship.

113
00:11:31,000 --> 00:11:37,000
Dus dat is niet, ook al zit ik niet in Amerika, ook al zit iemand in Thailand niet in Amerika,

114
00:11:37,000 --> 00:11:41,000
ook al zit iemand in Nieuw-Zeeland niet in Amerika, merken we de gevolgen daarvan.

115
00:11:41,000 --> 00:11:46,000
Dus het gaat niet alleen maar om de beperkingen per land,

116
00:11:46,000 --> 00:11:50,000
maar echt als een soort global governance.

117
00:11:50,000 --> 00:11:53,000
Ik had het ook genoemd in mijn artikel "algorithmic governance",

118
00:11:53,000 --> 00:12:01,000
dat het dus bepaald wordt door de status quo van de politieke bewegingen in de wereld.

119
00:12:01,000 --> 00:12:07,000
En dat zie je ook in Italië, wat er nu gebeurt met verkiezingen naar meer rechtse politiek.

120
00:12:07,000 --> 00:12:12,000
En dat wordt een beetje gespiegeld in die zin.

121
00:12:12,000 --> 00:12:16,000
Dus het is een beetje moeilijk te zeggen wie precies deze beslissingen maakt.

122
00:12:16,000 --> 00:12:20,000
Maar wat ik dus ook schreef in een artikel over Silicon Valley,

123
00:12:20,000 --> 00:12:30,000
waar heel veel computer scientists te werk gaan, dat zit dus wel in Amerika.

124
00:12:30,000 --> 00:12:34,000
En in een boek "Silicon Values" heet het, door Gillian York,

125
00:12:34,000 --> 00:12:38,000
zij schreef dus over de normen en waarden die uit Silicon Valley komen,

126
00:12:38,000 --> 00:12:43,000
die vaak profit-driven zijn, dus geld gedreven.

127
00:12:43,000 --> 00:12:44,000
Ja, precies.

128
00:12:44,000 --> 00:12:47,000
Die meer aan de rechtere kant zitten.

129
00:12:47,000 --> 00:12:52,000
Ook omdat er toch meer geld in zit aan de rechterkant.

130
00:12:52,000 --> 00:12:55,000
En die vloeien eigenlijk door in de technologie.

131
00:12:55,000 --> 00:13:01,000
Dus je krijgt, dat wordt vaker gezegd, technologie is niet waardenneutraal.

132
00:13:01,000 --> 00:13:03,000
Dus er zitten allerlei keuzes in,

133
00:13:03,000 --> 00:13:08,000
waardoor alles wat daar aan besluiten wordt genomen,

134
00:13:08,000 --> 00:13:12,000
dat wij daar uiteindelijk ook de effecten van merken.

135
00:13:12,000 --> 00:13:17,000
Ja, ik denk dat het nog erger is dat we misschien niet eens doorhebben dat het effect plaatsvindt,

136
00:13:17,000 --> 00:13:20,000
maar dat we het gewoon nog niet ervaren.

137
00:13:20,000 --> 00:13:21,000
Precies.

138
00:13:21,000 --> 00:13:24,000
Dit is dan het voorbeeld dat, in jouw situatie zie je het gebeuren,

139
00:13:24,000 --> 00:13:27,000
maar ik denk dat het heel vaak wel gebeurt, maar dat we het niet doorhebben.

140
00:13:27,000 --> 00:13:29,000
Hoe krijg je daar zicht op?

141
00:13:29,000 --> 00:13:30,000
Precies.

142
00:13:30,000 --> 00:13:35,000
Heb je nog een voorbeeld van zoiets onzichtbaars, iets wat wij niet hebben gezien,

143
00:13:35,000 --> 00:13:43,000
maar waardoor jullie wel minder post krijgen?

144
00:13:43,000 --> 00:13:51,000
Ja, een voorbeeld is dat mijn baas bij Women on Web haar Facebook-account was geblokkeerd,

145
00:13:51,000 --> 00:13:56,000
om te zorgen dat zij als administrator niet meer kon posten op Women on Web.

146
00:13:56,000 --> 00:14:00,000
Dus dat is iets wat heel erg impliciet is eigenlijk.

147
00:14:00,000 --> 00:14:04,000
Dus oké, we gaan niet Women on Web blokkeren,

148
00:14:04,000 --> 00:14:07,000
maar als we de mensen blokkeren die de post kunnen maken,

149
00:14:07,000 --> 00:14:13,000
dat is eigenlijk een soort manier om een beetje die puppet master te spelen van

150
00:14:13,000 --> 00:14:15,000
wat zie je wel en wat zie je niet.

151
00:14:15,000 --> 00:14:22,000
Of de Google Core update in 2020 zorgde ervoor dat als je Women on Web intypte op Google,

152
00:14:22,000 --> 00:14:27,000
dat we niet bovenaan de lijst stonden van zoekresultaten.

153
00:14:27,000 --> 00:14:31,000
Dus dat is ook een manier om of helemaal niet te laten zien,

154
00:14:31,000 --> 00:14:34,000
of op pagina 4 waar je dan niet meer komt.

155
00:14:34,000 --> 00:14:36,000
En niemand kijkt op pagina 4.

156
00:14:36,000 --> 00:14:38,000
Nee, daar kom je nooit.

157
00:14:38,000 --> 00:14:44,000
Dus dat is wel zo'n manier van, je merkt niet als consument of als gebruiker van social media of Google,

158
00:14:44,000 --> 00:14:50,000
dat je getarget wordt, maar wij worden in die zin beperkt van

159
00:14:50,000 --> 00:14:54,000
hoe kom je op onze site en toch is dat heel erg belangrijk.

160
00:14:54,000 --> 00:14:58,000
Als je ons niet kan zoeken op Google, hoe kom je dan bij ons?

161
00:14:58,000 --> 00:15:02,000
Dan moet je weten waar je precies moet zoeken, maar dat is voor heel veel mensen niet zo makkelijk.

162
00:15:02,000 --> 00:15:05,000
Je weet niet wat je niet weet of hoe je het moet vinden.

163
00:15:05,000 --> 00:15:09,000
En nu heb je het over, we hebben ook Uncensored, een website waar meer mensen aan meedoen.

164
00:15:09,000 --> 00:15:11,000
Wordt die nu makkelijker gevonden dan?

165
00:15:11,000 --> 00:15:14,000
Of heb je nu tactieken om dat makkelijker vindbaar te maken?

166
00:15:14,000 --> 00:15:18,000
Ja, er zijn wel wat tactieken bedacht.

167
00:15:18,000 --> 00:15:25,000
Bijvoorbeeld, daar moet je dan weer van weten, een privé soort VPN gebruiken.

168
00:15:25,000 --> 00:15:28,000
Als je de Onion browser, Tor heet dat.

169
00:15:28,000 --> 00:15:31,000
Daarmee zou je die censorship kunnen omzeilen.

170
00:15:31,000 --> 00:15:37,000
Of als je in plaats van een A bij abortus een A-pestaartje gebruikt,

171
00:15:37,000 --> 00:15:41,000
dan heb je een term die de orgel niet ziet.

172
00:15:41,000 --> 00:15:44,000
Of ik had eens een keertje ook met ChatGPT,

173
00:15:44,000 --> 00:15:48,000
daar wou ik een tekst laten corrigeren, ook voor spelling en grammatica.

174
00:15:48,000 --> 00:15:50,000
Daar heb ik nu ook wel last van soms.

175
00:15:50,000 --> 00:15:53,000
Echt waar? Ik ook.

176
00:15:53,000 --> 00:15:55,000
Dus soms is het gewoon een handige tool.

177
00:15:55,000 --> 00:16:00,000
En dan zag ik bijvoorbeeld dat mijn zoekopdracht niet mocht,

178
00:16:00,000 --> 00:16:02,000
omdat het een politiek onderwerp was.

179
00:16:02,000 --> 00:16:08,000
Maar als ik dan het woord abortus vervang met 'ongewenste zwangerschap' beëindigen,

180
00:16:08,000 --> 00:16:09,000
dan kan het wel.

181
00:16:09,000 --> 00:16:13,000
O ja, want dat herkent hij gewoon nog niet als zijn synoniem.

182
00:16:13,000 --> 00:16:16,000
Dat zijn trucjes, synoniemen gebruiken.

183
00:16:16,000 --> 00:16:17,000
Wat goed.

184
00:16:17,000 --> 00:16:23,000
We hebben elkaar bij de boekpresentatie van Aaron Mirck gesproken.

185
00:16:23,000 --> 00:16:27,000
En daar gaf je volgens mij ook het voorbeeld over het adverteren.

186
00:16:27,000 --> 00:16:29,000
Jullie adverteren dan ook.

187
00:16:29,000 --> 00:16:34,000
En dat je er eigenlijk gewoon wordt uitgedrukt door de Pro-Life lobby.

188
00:16:34,000 --> 00:16:35,000
Ja, precies.

189
00:16:35,000 --> 00:16:38,000
Daar had ik dus ook onderzoek naar gedaan.

190
00:16:38,000 --> 00:16:42,000
Waarom ook al betalen we voor een advertentie,

191
00:16:42,000 --> 00:16:45,000
waarom wordt die dan alsnog weggenomen?

192
00:16:45,000 --> 00:16:50,000
En je ziet, terwijl onze advertenties geblokkeerd worden,

193
00:16:50,000 --> 00:16:54,000
zie je wel advertenties voor de abortion pill reversal.

194
00:16:54,000 --> 00:16:58,000
Dat is een soort anti-choice Pro-Life hoek.

195
00:16:58,000 --> 00:17:01,000
Stel, je hebt spijt dat je de abortuspil hebt genomen,

196
00:17:01,000 --> 00:17:07,000
hebben wij een pil die de effecten daarvan omdraait.

197
00:17:07,000 --> 00:17:11,000
En toen ging ik onderzoek doen naar hoeveel zij betalen daarvoor.

198
00:17:11,000 --> 00:17:15,000
En bijvoorbeeld onze advertentie kostte dan 7000 dollar.

199
00:17:15,000 --> 00:17:18,000
En die van hun 21.000 dollar.

200
00:17:18,000 --> 00:17:20,000
Dus drie keer zoveel.

201
00:17:20,000 --> 00:17:26,000
En je merkt dan wel, dan hebben ze wel voorkeur voor een adverteerder

202
00:17:26,000 --> 00:17:28,000
die net wat meer budget heeft.

203
00:17:28,000 --> 00:17:30,000
Want Women on Web is wel non-profit.

204
00:17:30,000 --> 00:17:36,000
En zo zijn veel van die organisaties non-profit of non-governmental.

205
00:17:36,000 --> 00:17:39,000
Er zit niet heel veel geld in, moet ik zeggen.

206
00:17:39,000 --> 00:17:43,000
Wel genoeg om te blijven runnen, maar er wordt niet veel aandacht.

207
00:17:43,000 --> 00:17:45,000
We hebben niet genoeg om...

208
00:17:45,000 --> 00:17:46,000
Ja, dat is ook zo'n...

209
00:17:46,000 --> 00:17:49,000
Even zo'n campagne inderdaad voor een ton weg te zetten

210
00:17:49,000 --> 00:17:50,000
om er toch bovenuit te komen.

211
00:17:50,000 --> 00:17:53,000
Dat is niet de middelen die er zijn om daardoor op te vallen.

212
00:17:53,000 --> 00:17:59,000
En dat is ook zo'n voorbeeld wat jij vroeg van dingen die wij niet zien.

213
00:17:59,000 --> 00:18:04,000
Uiteindelijk is het een betaalde campagne die wij nooit onder ogen zien.

214
00:18:04,000 --> 00:18:06,000
Maar is het niet gek dat...

215
00:18:06,000 --> 00:18:10,000
Want je zou kunnen zeggen als je voor abortus bent,

216
00:18:10,000 --> 00:18:13,000
als dat politiek geladen blijkt te zijn,

217
00:18:13,000 --> 00:18:18,000
dat als je tegen abortus bent, dat dat dan ook politiek geladen zou moeten zijn.

218
00:18:18,000 --> 00:18:21,000
Ja, daar kan ik wel boos van worden inderdaad.

219
00:18:21,000 --> 00:18:26,000
Waarom is... Als je voor abortus bent is het ineens een politiek onderwerp,

220
00:18:26,000 --> 00:18:28,000
maar als je tegen bent of ja...

221
00:18:28,000 --> 00:18:35,000
Als je je mening uitspreekt daarover, dan wordt het zo minder vaak gesensoreerd.

222
00:18:35,000 --> 00:18:41,000
En ook de comments die wij krijgen van pro-life organisatie op onze post,

223
00:18:41,000 --> 00:18:43,000
die worden niet weggehaald.

224
00:18:43,000 --> 00:18:47,000
Terwijl dat wel hate comments zijn.

225
00:18:47,000 --> 00:18:50,000
Ik zeg niet dat ze nooit weggehaald worden.

226
00:18:50,000 --> 00:18:52,000
Daar wil ik wel mee oppassen.

227
00:18:52,000 --> 00:18:58,000
Het is niet zo dat 100% van de posts van pro-life organisaties wel online te zien zijn.

228
00:18:58,000 --> 00:19:02,000
Maar ze hebben daar veel minder last van, van wat ik heb gezien.

229
00:19:02,000 --> 00:19:07,000
Dus eigenlijk zorgen de, in dit geval de big tech, misschien wat overheden,

230
00:19:07,000 --> 00:19:11,000
maar zeker zeg jij eigenlijk ook de algoritmes aan zich,

231
00:19:11,000 --> 00:19:15,000
voor een ongelijk speelveld op dit vlak.

232
00:19:15,000 --> 00:19:20,000
Ja, en wat ik dus ook benadruk is het idee dat algoritmes,

233
00:19:20,000 --> 00:19:23,000
ze worden gemaakt door mensen uiteindelijk.

234
00:19:23,000 --> 00:19:26,000
Dus dat vond ik wel interessant in mijn onderzoek,

235
00:19:26,000 --> 00:19:29,000
dat veel mensen dachten van, of denken van,

236
00:19:29,000 --> 00:19:33,000
algoritmes zijn een soort iets uit de wiskunde.

237
00:19:33,000 --> 00:19:36,000
Gewoon iets heel erg uit de wetenschap.

238
00:19:36,000 --> 00:19:39,000
Het lijkt heel erg robuust te zijn,

239
00:19:39,000 --> 00:19:43,000
omdat er niet altijd, het lijkt niet alsof er mensen achter zitten.

240
00:19:43,000 --> 00:19:47,000
En dat had ik ook geschreven over een soort metafoor,

241
00:19:47,000 --> 00:19:50,000
dat het een beetje een goochelaar is die een trucje speelt.

242
00:19:50,000 --> 00:19:54,000
En je kan er nooit achter komen hoe hij dat trucje speelt.

243
00:19:54,000 --> 00:19:57,000
En dat maakt het juist altijd een trucje.

244
00:19:57,000 --> 00:20:00,000
Zou je dat nog iets meer kunnen toelichten?

245
00:20:00,000 --> 00:20:04,000
Want hoe zie je die goochelaar ten opzichte van het algoritme?

246
00:20:04,000 --> 00:20:09,000
Dat de mensen die achter de schermen werken om die algoritmes te schrijven...

247
00:20:09,000 --> 00:20:15,000
Ja, die zorgen voor die optische illusie die anders de goochelaar...

248
00:20:15,000 --> 00:20:18,000
Die je dus ook niet kan nabootsen, want dat is dan denk ik de kern.

249
00:20:18,000 --> 00:20:21,000
Je kan niet nabootsen om die truc dan in dit geval na te kunnen doen,

250
00:20:21,000 --> 00:20:23,000
omdat je niet weet hoe de truc werkt.

251
00:20:23,000 --> 00:20:25,000
Ja.

252
00:20:25,000 --> 00:20:28,000
Van een andere analogie vond ik ook wel een mooie,

253
00:20:28,000 --> 00:20:31,000
waar we het dan eerder in de podcast net over hadden,

254
00:20:31,000 --> 00:20:33,000
is de doorn van de doornstruik.

255
00:20:33,000 --> 00:20:38,000
Inderdaad, je raakt iets zonder dat je het inderdaad doorhebt dat het er is.

256
00:20:38,000 --> 00:20:42,000
En het voelt eventjes ongemakkelijk, maar daarna denk je niet meer over na.

257
00:20:42,000 --> 00:20:45,000
Maar het zit overal. En dat vond ik hier ook wel.

258
00:20:45,000 --> 00:20:47,000
Maar goed, dat was even een hersenspinsel.

259
00:20:47,000 --> 00:20:49,000
Uit het artikel zelf bedoel je?

260
00:20:49,000 --> 00:20:51,000
Ja, uit het artikel zelf inderdaad.

261
00:20:51,000 --> 00:20:54,000
Precies, dat je de beslissing maakt om een roos te plukken van een tuin

262
00:20:54,000 --> 00:20:58,000
en je voelt de doorn en je hebt misschien ook een beetje bloed van de prik.

263
00:20:58,000 --> 00:21:05,000
Maar als je in dit geval niet weet dat je de pijn voelt,

264
00:21:05,000 --> 00:21:08,000
dus je plukt de roos, maar je hebt een beetje bloed,

265
00:21:08,000 --> 00:21:11,000
maar je voelt de pijn niet. Dus je ziet niet wat er is gebeurd,

266
00:21:11,000 --> 00:21:13,000
maar je hebt toch wel de gevolgen daarvan.

267
00:21:13,000 --> 00:21:15,000
Je merkt de gevolgen daarvan.

268
00:21:15,000 --> 00:21:21,000
Dat zit ook in het artikel ervoor, om een beetje te laten voelen hoe onzichtbaar het is.

269
00:21:21,000 --> 00:21:26,000
En wat zou je onze luisteraars daarin mee willen geven?

270
00:21:26,000 --> 00:21:29,000
Wat kunnen ze hier iets in betekenen?

271
00:21:29,000 --> 00:21:31,000
Moet je hier bewust van worden?

272
00:21:31,000 --> 00:21:34,000
Wat is belangrijk voor ze?

273
00:21:34,000 --> 00:21:39,000
Ik denk dat bewustwording voor mij heel erg belangrijk is,

274
00:21:39,000 --> 00:21:42,000
omdat ik er helemaal geen idee over had,

275
00:21:42,000 --> 00:21:45,000
totdat ik hier begon aan te werken.

276
00:21:45,000 --> 00:21:48,000
En ik me nu al zoveel in heb verdiept,

277
00:21:48,000 --> 00:21:52,000
dat ik het niet kan geloven dat dit niet publiek informatie is.

278
00:21:52,000 --> 00:21:55,000
Dus ik zou zeggen, lees hierover.

279
00:21:55,000 --> 00:21:59,000
Er is net een artikel hieruit gekomen van de New York Times.

280
00:21:59,000 --> 00:22:04,000
En ook Amnesty International is hier veel over aan het praten.

281
00:22:04,000 --> 00:22:09,000
Bits of Freedom is ook een organisatie in Nederland die hier specifiek over praat,

282
00:22:09,000 --> 00:22:13,000
over platform censorship.

283
00:22:13,000 --> 00:22:17,000
Wat zegt Amnesty hier bijvoorbeeld over?

284
00:22:17,000 --> 00:22:22,000
Ja, ze zijn onderdeel van Repro Uncensored.

285
00:22:22,000 --> 00:22:28,000
Dus ze staan ook echt voor het verspreiden van correcte informatie.

286
00:22:28,000 --> 00:22:33,000
En ze hebben dus ook een heel artikel of een heel stuk geschreven over

287
00:22:33,000 --> 00:22:38,000
hoe je privacy kan behouden terwijl je online dingen opzoekt.

288
00:22:38,000 --> 00:22:41,000
Dus met die privacy browsers bijvoorbeeld.

289
00:22:41,000 --> 00:22:44,000
Dus ze hebben een stuk daarover geschreven om je te helpen,

290
00:22:44,000 --> 00:22:49,000
met je die digital literacy te informeren over hoe je het beste

291
00:22:49,000 --> 00:22:54,000
toch aan je informatie kan komen terwijl er een soort politieagenten voor je

292
00:22:54,000 --> 00:22:57,000
of achter je scherm staan van dit mag wel en dit mag niet.

293
00:22:57,000 --> 00:23:02,000
Het is bijna niet eens meer een soort van, want ik geloof dat in een aantal Amerikaanse staten,

294
00:23:02,000 --> 00:23:06,000
ik geloof het opzoeken of dat er dingen al strafbaar genoeg is,

295
00:23:06,000 --> 00:23:08,000
dat ze daadwerkelijk voor je deur staan.

296
00:23:08,000 --> 00:23:15,000
Ja, er zijn ook tijden geweest waar het tegen hun gebruikt werd in een court case, in een uitzaak.

297
00:23:15,000 --> 00:23:23,000
Dus dat hun zoektermen, of dat een menstruatie app al wist dat ze zwanger waren

298
00:23:23,000 --> 00:23:29,000
en dat die data was toen gelekt of gebruikt tegen hun om te zeggen van je hebt wel een abortus gedaan

299
00:23:29,000 --> 00:23:34,000
en je wist er wel van omdat we het via de app hebben kunnen zien.

300
00:23:34,000 --> 00:23:38,000
Dus daarvan bewust worden is voor mij…

301
00:23:38,000 --> 00:23:45,000
Dat zijn de enge dingen van algoritmes, dat uiteindelijk meer van je…

302
00:23:45,000 --> 00:23:47,000
Ja, dit gaat verder dan de bubbel.

303
00:23:47,000 --> 00:23:50,000
We hebben het veel vaker over de bubbel waarin je zit, dat je niet alle informatie krijgt,

304
00:23:50,000 --> 00:23:53,000
of dat je heel gepolariseerd bent. Maar dit gaat verder dan de bubbel.

305
00:23:53,000 --> 00:23:55,000
Dit is nog wel een stapje verder.

306
00:23:55,000 --> 00:24:00,000
En hebben jullie, ik weet niet of jullie daar ook dingen op hebben gedaan,

307
00:24:00,000 --> 00:24:05,000
maar Twitter X is natuurlijk ook een platform. Geldt daar hetzelfde voor?

308
00:24:05,000 --> 00:24:07,000
Want daar heb je het over meta gehad.

309
00:24:07,000 --> 00:24:12,000
Daar hebben we veel minder dat we geblokkeerd werden of gesensoreerd werden.

310
00:24:12,000 --> 00:24:17,000
Daar blijkt het een soort vrijere platform te zijn.

311
00:24:17,000 --> 00:24:22,000
Daar heb ik ook niet heel veel onderzoek naar gedaan, dus ik durf niet veel meer te zeggen dan dat.

312
00:24:22,000 --> 00:24:30,000
Maar uit eigen ervaring leek het wel een veiligere plek om onze posts te posten,

313
00:24:30,000 --> 00:24:34,000
omdat ze tenminste wel op Twitter of X bleven.

314
00:24:34,000 --> 00:24:40,000
Al moet ik wel zeggen dat we alsnog te maken hadden met shadowbanning.

315
00:24:40,000 --> 00:24:48,000
Dat is dus dat je niet doorhebt als organisatie dat je posts minder mensen bereikt.

316
00:24:48,000 --> 00:24:55,000
Daar geldt precies hetzelfde. We hebben iets van 21.000 volgers en dan krijg je soms twee of drie likes.

317
00:24:55,000 --> 00:24:57,000
En dan denk je waar gaat die heen?

318
00:24:57,000 --> 00:25:02,000
Maar dat ligt denk ik ook meer aan die soort engagement algoritmes.

319
00:25:02,000 --> 00:25:06,000
Als je niet heel vaak post, dan krijgen mensen heel weinig te zien van je.

320
00:25:06,000 --> 00:25:09,000
Dus ik weet niet of het daar aangelinkt is of meer aan het...

321
00:25:09,000 --> 00:25:14,000
Nee, precies. Dat onderzoek is natuurlijk heel moeilijk om dat te kwantificeren van waar het dan ligt.

322
00:25:14,000 --> 00:25:16,000
Dat snap ik wel.

323
00:25:16,000 --> 00:25:22,000
Waar ik hem juist om vroeg, omdat Elon Musk zegt natuurlijk van op Twitter mag alles.

324
00:25:22,000 --> 00:25:26,000
En met alles bedoelt hij vaak ook echt alles.

325
00:25:26,000 --> 00:25:31,000
Dus ik was benieuwd of dat dan ook een beetje klopt.

326
00:25:31,000 --> 00:25:35,000
Jij hebt af en toe een blik achter de schermen dan.

327
00:25:35,000 --> 00:25:38,000
Dat was nogal een vraag die bij mij leeft.

328
00:25:38,000 --> 00:25:46,000
Hoe doe je het onderzoek als organisaties zijnde of je inderdaad het bereik al hebt wat je verwacht te gaan krijgen?

329
00:25:46,000 --> 00:25:48,000
Hoe kunnen bedrijven dat doen?

330
00:25:48,000 --> 00:25:50,000
Stel voor een bedrijf, denk ik van het wordt niet gevonden.

331
00:25:50,000 --> 00:25:53,000
Ligt het aan de manier waarop ik post, wat ik post of ligt het hieraan?

332
00:25:53,000 --> 00:25:56,000
Wat voor stappen kan je als organisatie daarin zetten?

333
00:25:56,000 --> 00:26:00,000
Dat kregen wij best wel snel te zien als organisatie.

334
00:26:00,000 --> 00:26:07,000
Dat onze content niet online mocht blijven door die community guideline.

335
00:26:07,000 --> 00:26:10,000
Dus eigenlijk zagen we dat heel snel.

336
00:26:10,000 --> 00:26:16,000
Maar als je inderdaad te maken met shadowbanning, dat je het niet weet, dan kan je echt een klacht indienen.

337
00:26:16,000 --> 00:26:24,000
Met aan vragen bijvoorbeeld van ik merk dat niet zoveel mensen raakt als ik zou willen.

338
00:26:24,000 --> 00:26:26,000
Klopt het dat het…

339
00:26:26,000 --> 00:26:28,000
En krijg je dan ook een zinnige antwoord?

340
00:26:28,000 --> 00:26:31,000
Nee, niet altijd.

341
00:26:31,000 --> 00:26:33,000
Soms krijg je gewoon een bot.

342
00:26:33,000 --> 00:26:36,000
Of je moet 14 dagen wachten op je antwoord.

343
00:26:36,000 --> 00:26:40,000
En dan krijg je soms helemaal geen antwoord.

344
00:26:40,000 --> 00:26:43,000
Het is best wel rommelig moet ik zeggen.

345
00:26:43,000 --> 00:26:46,000
Het is niet altijd 1, 2, 3, een soort makkelijk antwoord.

346
00:26:46,000 --> 00:26:48,000
Soms is het ook een foutje.

347
00:26:48,000 --> 00:26:50,000
Dat hebben we ook wel eens gehad.

348
00:26:50,000 --> 00:26:54,000
Dat het een soort algoritmes ding was van, oh ja, we zagen een term die niet mocht.

349
00:26:54,000 --> 00:26:57,000
Maar eigenlijk is in deze setting is dat wel helemaal oké.

350
00:26:57,000 --> 00:27:01,000
Dus het was een soort voorzorg in die zin.

351
00:27:01,000 --> 00:27:07,000
Maar ja, op zich zouden ze die protocols wat smoother kunnen maken.

352
00:27:07,000 --> 00:27:09,000
Dat het niet per ongeluk gebeurt.

353
00:27:09,000 --> 00:27:13,000
Dat je niet na elke post erachteraan moet rennen van, hé klopt dit wel?

354
00:27:13,000 --> 00:27:20,000
Dus ja, ik zou er gewoon goed op letten als je merkt dat bepaalde termen in je tekst gebruikt worden.

355
00:27:20,000 --> 00:27:23,000
En dat je daardoor ook minder mensen bereikt.

356
00:27:23,000 --> 00:27:26,000
Zou je kunnen overwegen om andere termen te gebruiken.

357
00:27:26,000 --> 00:27:28,000
Ook hashtags te gebruiken.

358
00:27:28,000 --> 00:27:29,000
Altijd op een bepaalde tijdstip.

359
00:27:29,000 --> 00:27:32,000
Daar moest ik ook altijd mee rekening mee houden.

360
00:27:32,000 --> 00:27:37,000
Zodat het precies op de juiste tijd van de dag op Instagram terecht kwam.

361
00:27:37,000 --> 00:27:40,000
Dat het wel in een soort goede algoritme kwam te zitten.

362
00:27:40,000 --> 00:27:42,000
Ja, precies.

363
00:27:42,000 --> 00:27:44,000
En misschien een beetje spelen met de woorden.

364
00:27:44,000 --> 00:27:46,000
Ja, spelen met de woorden.

365
00:27:46,000 --> 00:27:53,000
Dat je door de mazen van het wet, nee, door de mazen van het algoritme glipt.

366
00:27:53,000 --> 00:28:00,000
Of zelfs als je een organisatie hebt met veel feitjes, zoals wij hebben, gewoon heel veel tekst.

367
00:28:00,000 --> 00:28:05,000
Probeer het ook eens anders te laten zien met een foto die mensen raakt.

368
00:28:05,000 --> 00:28:09,000
Want dan heeft het algoritme minder om te kunnen filteren.

369
00:28:09,000 --> 00:28:16,000
Dus een post met heel veel tekst heeft dan meer triggers voor een algoritme dan een foto soms.

370
00:28:16,000 --> 00:28:21,000
Dus het is een hele creatieve manier om ermee om te gaan.

371
00:28:21,000 --> 00:28:23,000
En soms win je, soms verlies je.

372
00:28:23,000 --> 00:28:26,000
En dat is juist het vervelende eraan.

373
00:28:26,000 --> 00:28:34,000
Maar ik zou gewoon lezen over hoe je het beste mensen alert kan maken van het probleem.

374
00:28:34,000 --> 00:28:39,000
Want ik merk ook wel dat veel mensen, als je mensen alert maakt, staan ze aan jouw kant.

375
00:28:39,000 --> 00:28:45,000
En dan hebben we bijvoorbeeld een keertje gezegd van iedereen doe @metta in de comments.

376
00:28:45,000 --> 00:28:51,000
En dan was er een soort viral iets dat ze daar naar gingen kijken.

377
00:28:51,000 --> 00:28:54,000
En dan hadden we veel mensen geraakt daarmee.

378
00:28:54,000 --> 00:28:59,000
En ook Metta er bewust van gemaakt dat het niet oké is om ons te blokkeren.

379
00:28:59,000 --> 00:29:02,000
Dus voor mezelf even inderdaad spelen met woorden.

380
00:29:02,000 --> 00:29:06,000
Kijken naar andere content. Kijk goed naar tijden. Kijk hoe het algoritme erop reageert.

381
00:29:06,000 --> 00:29:09,000
Heb je twijfels? Neem ook gewoon contact op.

382
00:29:09,000 --> 00:29:11,000
En doe in ieder geval de reach-out van 'Goh, het is anders dan ik verwacht.'

383
00:29:11,000 --> 00:29:14,000
Dat zijn tips waar organisaties mee aan de slag gaan.

384
00:29:14,000 --> 00:29:19,000
We hebben ook een fitte week co-host, Aisha, en die wil vaak ook een vraag stellen.

385
00:29:19,000 --> 00:29:20,000
Kom maar op.

386
00:29:20,000 --> 00:29:39,000
Goedendag, mijn naam is Aisha. Ik ben de AI die deel uitmaakt van deze podcast.

387
00:29:39,000 --> 00:29:41,000
Mag ik je een vraag stellen?

388
00:29:41,000 --> 00:29:42,000
Ja hoor.

389
00:29:42,000 --> 00:29:46,000
Hoe voorkomen we dat AI ongelijkheid vergroot in de samenleving?

390
00:29:46,000 --> 00:29:49,000
Wat een toepasselijke vraag.

391
00:29:49,000 --> 00:29:51,000
We hebben al veel over gehad, zou je al zeggen.

392
00:29:51,000 --> 00:29:55,000
Maar misschien iets breder dan de social media algoritmes.

393
00:29:55,000 --> 00:29:58,000
Dus hoe kunnen we voorkomen dat algoritmes...

394
00:29:58,000 --> 00:30:02,000
Dat AI ongelijkheid vergroot in de samenleving?

395
00:30:02,000 --> 00:30:04,000
Ik zou zeggen...

396
00:30:04,000 --> 00:30:11,000
Het ligt denk ik aan de data natuurlijk, wat de algoritme krijgt om...

397
00:30:11,000 --> 00:30:12,000
Om te trainen.

398
00:30:12,000 --> 00:30:14,000
Ja, om te trainen.

399
00:30:14,000 --> 00:30:21,000
En als die data over precies dit onderwerp, maar ook over het algemeen, meer aan één kant staat...

400
00:30:21,000 --> 00:30:27,000
Dus als het niet heel erg gevarieerd is in die zin, dan heb je kans dat het ongelijkheid gaat vergroten.

401
00:30:27,000 --> 00:30:32,000
In de zin van, dat gaat de data spiegelen wat er al is.

402
00:30:32,000 --> 00:30:37,000
Dus dat zie je ook bij gezondheidszorg, AI op dit moment.

403
00:30:37,000 --> 00:30:42,000
Als je alleen maar witte patiënten, de data van witte patiënten gebruikt...

404
00:30:42,000 --> 00:30:49,000
Dan gaat die wel moeite hebben met een juiste beoordeling hebben over een patiënt die misschien niet wit is.

405
00:30:49,000 --> 00:30:55,000
Dus als je data gebruikt over niet feministische onderwerpen...

406
00:30:55,000 --> 00:30:58,000
Dan heb je kans dat die niet feministisch gaat zijn.

407
00:30:58,000 --> 00:31:01,000
Dus ik hoop, ik denk dat het daaraan ligt.

408
00:31:01,000 --> 00:31:06,000
Niet alleen aan de kant van de data zelf, maar ook aan de mensen die de data verzamelen.

409
00:31:06,000 --> 00:31:09,000
Hier heb ik ook wel eens een studie over gedaan.

410
00:31:09,000 --> 00:31:16,000
Over AI en het gebruik van AI met anticonceptievoorschrijven.

411
00:31:16,000 --> 00:31:21,000
En ze hadden toen data gebruikt van een kliniek in Colombia, 30.000 mensen.

412
00:31:21,000 --> 00:31:23,000
Hoe ga je dat dan toepassen?

413
00:31:23,000 --> 00:31:28,000
Dit gaat niet over ongelijkheid, maar gewoon over de data gebruik.

414
00:31:28,000 --> 00:31:33,000
Of goedkoop data inkopen van een low-income country in die zin.

415
00:31:33,000 --> 00:31:37,000
Voor een Nederlandse algoritme, hoe ga je daar dan mee om?

416
00:31:37,000 --> 00:31:40,000
Oh zo ja. Want dan heb je eigenlijk Colombiaanse data.

417
00:31:40,000 --> 00:31:44,000
En die probeer je dan op onze situatie toe te passen.

418
00:31:44,000 --> 00:31:50,000
Dan vergroot je de ongelijkheid in de zin dat zij dan veel minder geld zouden krijgen dan een Nederlandse studie.

419
00:31:50,000 --> 00:31:54,000
Omdat het makkelijker is om die data te kopen, goedkoper.

420
00:31:54,000 --> 00:31:57,000
Dus dan vergroot je de ongelijkheid in de zin.

421
00:31:57,000 --> 00:32:00,000
Dus ook ethische manieren van data inkopen.

422
00:32:00,000 --> 00:32:10,000
En zorg dat je dan niet alleen Colombiaanse vrouwen, maar ook vrouwen of mensen uit Thailand, Finland, Zuid-Afrika.

423
00:32:10,000 --> 00:32:17,000
Dat het tenminste wel een globaal plaatje schetst als je het gaat gebruiken op mensen uit de hele wereld.

424
00:32:17,000 --> 00:32:19,000
Precies. Ja duidelijk.

425
00:32:19,000 --> 00:32:20,000
Goed antwoord.

426
00:32:20,000 --> 00:32:23,000
Dankjewel voor je gedetailleerde uitleg.

427
00:32:23,000 --> 00:32:25,000
Hartstikke goed antwoord.

428
00:32:25,000 --> 00:32:31,000
Uiteindelijk zijn we ook heel erg benieuwd naar jouw mening over dit onderwerp.

429
00:32:31,000 --> 00:32:32,000
Jij verdiept je hierin.

430
00:32:32,000 --> 00:32:37,000
Wij zitten er niet zo sociologisch in.

431
00:32:37,000 --> 00:32:40,000
Dus voor ons is het allemaal buitengewoon interessant.

432
00:32:40,000 --> 00:32:45,000
Wat zou jij, je zit nu in de onderzoek.

433
00:32:45,000 --> 00:32:50,000
Wat als je onderzoek is afgelopen, waar gaat je hart naar uit?

434
00:32:50,000 --> 00:32:53,000
Wat worden je volgende stappen?

435
00:32:53,000 --> 00:32:59,000
Goede vraag. Ik denk dat ik dit onderzoek volgens mij nooit stoppen.

436
00:32:59,000 --> 00:33:03,000
Mijn onderzoek van twee jaar geleden is eigenlijk al outdated.

437
00:33:03,000 --> 00:33:12,000
Als je daar naar kijkt naar de feitjes, niet het onderzoek, maar er zijn bepaalde dingen die refreshed moeten worden.

438
00:33:12,000 --> 00:33:18,000
En dat gaat denk ik voor altijd nodig zijn om het accuraat te houden.

439
00:33:18,000 --> 00:33:22,000
Dus ik denk niet per se dat mijn onderzoek fase gaat stoppen.

440
00:33:22,000 --> 00:33:25,000
Omdat er ook zoveel kanten zijn naar dit onderzoek.

441
00:33:25,000 --> 00:33:29,000
Omdat het ook een internationaal bedrijf is of organisatie is.

442
00:33:29,000 --> 00:33:36,000
Zoals ik net bedoemde zijn er casussen in Zuid-Korea die heel anders zijn dan Spanje.

443
00:33:36,000 --> 00:33:39,000
Dus eigenlijk zou je dan onderzoek moeten doen naar die twee landen.

444
00:33:39,000 --> 00:33:42,000
Maar dat is ook in veel andere landen net zo.

445
00:33:42,000 --> 00:33:45,000
Dus ik denk niet dat mijn onderzoek gaat stoppen.

446
00:33:45,000 --> 00:33:50,000
Ik zou wel meer offline manieren willen vinden om dit te verspreiden.

447
00:33:50,000 --> 00:33:56,000
Omdat ik niet alleen in Nederland, maar ook in landen waar ze geen toegang hebben tot het internet.

448
00:33:56,000 --> 00:34:04,000
Dus misschien workshops organiseren voor mensen die niet weten hoe ze privé het internet kunnen gebruiken.

449
00:34:04,000 --> 00:34:08,000
En dat ze leren omgaan met die barrières.

450
00:34:08,000 --> 00:34:15,000
En weten wat de oplossingen zijn als ze een zoekopdracht toetsen die hun niet de antwoorden geeft die ze nodig hebben.

451
00:34:15,000 --> 00:34:22,000
Dus een kritische blik vormen op het internet of op algoritmes.

452
00:34:22,000 --> 00:34:27,000
Dus ja, die kant zou ik op willen als het onderzoek even op pauze zit.

453
00:34:27,000 --> 00:34:31,000
Ja, want het verandert natuurlijk continu. De algoritmes, de impact en dat soort zaken.

454
00:34:31,000 --> 00:34:33,000
Dus dat is eigenlijk ook iets wat je continu bijhoudt.

455
00:34:33,000 --> 00:34:37,000
Zien we al positieve of negatieve effecten op hetgeen wat we al eerder gezien hebben.

456
00:34:37,000 --> 00:34:40,000
Precies, het zou kunnen dat het over tien jaar heel anders eruit ziet.

457
00:34:40,000 --> 00:34:44,000
En dan is er misschien nog iets anders wat ik wil onderzoeken hierin.

458
00:34:44,000 --> 00:34:48,000
Maar ja, het is te hopen dat dit probleem opgelost zou kunnen worden.

459
00:34:48,000 --> 00:34:50,000
Het zou geweldig zijn.

460
00:34:50,000 --> 00:34:54,000
Stel je mag tien jaar vooruit kijken, wat zou je dan graag zien dat er veranderd is?

461
00:34:54,000 --> 00:35:02,000
Ik zou heel graag zien dat het meer open staat voor andere meningen dan wat je normaal te zien krijgt online.

462
00:35:02,000 --> 00:35:08,000
Dus ik merk wel dat ik er nu aan gewend ben om het altijd over abortus te hebben.

463
00:35:08,000 --> 00:35:11,000
Maar dat is voor heel veel mensen nog een taboe onderwerp.

464
00:35:11,000 --> 00:35:15,000
Dus ik zou heel graag willen dat het meer bespreekbaar zou kunnen zijn.

465
00:35:15,000 --> 00:35:18,000
Dat mensen niet schamen om daarover te praten.

466
00:35:18,000 --> 00:35:22,000
Dat ze niet schamen dat ze een abortus hebben gehad.

467
00:35:22,000 --> 00:35:27,000
Dat je kan zeggen dat je dat hebt gehad en dat je elkaar kunt steunen daarin.

468
00:35:27,000 --> 00:35:31,000
Want het is niet altijd makkelijk om dat te doen en om die beslissing te maken.

469
00:35:31,000 --> 00:35:34,000
Dus dat is aan één kant heel wat ik zou willen.

470
00:35:34,000 --> 00:35:37,000
Maar dat je daar ook openbaar over kan zijn online.

471
00:35:37,000 --> 00:35:41,000
Dus ook als organisatie, maar ook als individu.

472
00:35:41,000 --> 00:35:43,000
Dat je daar makkelijker over kan praten.

473
00:35:43,000 --> 00:35:50,000
En dat we daardoor meer bewustzijn kunnen creëren over wat een derde van de vrouwen zou kunnen meemaken.

474
00:35:50,000 --> 00:35:53,000
In de Verenigde Staten is dat een derde onder de 45 jaar.

475
00:35:53,000 --> 00:35:54,000
Ja, dat is gigantisch.

476
00:35:54,000 --> 00:35:57,000
Zoveel mensen hebben het gehad.

477
00:35:57,000 --> 00:36:00,000
De impact is in die zin enorm.

478
00:36:00,000 --> 00:36:03,000
Ja, ik denk dat je een heel belangrijk onderwerp.

479
00:36:03,000 --> 00:36:06,000
Gaaf dat je er zo gepassioneerd over bent.

480
00:36:06,000 --> 00:36:09,000
En dat je zegt van ja, hier ga ik voorlopig mee door.

481
00:36:09,000 --> 00:36:11,000
Ik denk dat het een hartstikke belangrijk werk is.

482
00:36:11,000 --> 00:36:14,000
Super bedankt dat je dit ons wilde vertellen.

483
00:36:14,000 --> 00:36:17,000
Dat je dit ook met de luisteraars wilde delen.

484
00:36:17,000 --> 00:36:21,000
Ja, de linkjes naar de artikelen die allemaal voorbij kwamen,

485
00:36:21,000 --> 00:36:23,000
zullen allemaal in de show notes opgenomen worden.

486
00:36:23,000 --> 00:36:26,000
Want volgens mij is het allemaal materiaal om rustig eens even door te lezen.

487
00:36:26,000 --> 00:36:27,000
Zeker, hartstikke bedankt.

488
00:36:27,000 --> 00:36:28,000
Dank jullie wel.

489
00:36:28,000 --> 00:36:32,000
Leuk dat je weer luisterde naar een aflevering van AIToday Live.

490
00:36:32,000 --> 00:36:34,000
Vandaag ietsje anders.

491
00:36:34,000 --> 00:36:37,000
Je noemt hem al speciaal, maar inderdaad Joop, heel speciaal.

492
00:36:37,000 --> 00:36:40,000
Maar misschien belangrijker dan alle anderen bij elkaar.

493
00:36:40,000 --> 00:36:45,000
Vergeet je niet te abonneren via je favoriete podcast app.

494
00:36:45,000 --> 00:36:46,000
En dan mis je geen aflevering.

495
00:36:46,000 --> 00:36:48,000
Tot de volgende keer.

496
00:36:48,000 --> 00:36:50,000
Volgende keer!