AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E47: Slim, Slimmer, Slimst: Het ABC van Kunstmatige Intelligentie
In deze podcastaflevering hebben we Bennie Mols te gast, een wetenschapsjournalist en schrijver van het boek "Slim, Slimmer, Slimst". In zijn boek richt Mols zich op kunstmatige intelligentie (AI) en robotica. In deze aflevering vertelt Mols over zijn specialisatie AI en legt hij uit wat kunstmatige intelligentie volgens zijn definitie inhoudt. Hij benadrukt dat AI machines in staat stelt taken uit te voeren die intelligentie zouden vereisen als mensen ze zouden doen. Mols legt uit dat kunstmatige intelligentie een aanvulling is op onze menselijke capaciteiten en dat machines ons slimmer kunnen maken.
Verder bespreekt Mols de samenwerking tussen mens en machine. Hij benadrukt dat AI uiteindelijk vooral mensenwerk is en dat wij als mensen de betekenis en context aan AI-informatie geven. Mols pleit ervoor om AI toegankelijk te maken voor iedereen en om machines te ontwikkelen met ethische normen en waarden. Hij legt uit dat slimme systemen geen motivaties hebben zoals mensen, maar dat het onze verantwoordelijkheid is om de juiste doelen en normen voor AI-systemen in te stellen.
Links
- Boek "Slim, Slimmer, Slimst" van Bennie Mols (https://www.bol.com/nl/nl/p/pocket-science-20-slim-slimmer-slimst/9300000144908027/?bltgh=kDBQFjznK9D2w6OSTdJOQA.2_6.7.ProductTitle)
- Sustainable Development Goals (https://www.un.org/sustainabledevelopment/sustainable-development-goals/)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:08,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de podcast AI Today Live.
2
00:00:08,000 --> 00:00:15,000
Met vandaag, daar ben ik echt heel erg blij om, Bennie Mols, wetenschapsjournalist en schrijver van het boek Slim, Slimmer, Slimst.
3
00:00:15,000 --> 00:00:22,000
Ik heb er al wat over geschreven op LinkedIn, dus ik ben zo blij dat je er bent Bennie, we hebben een hoop vragen voor je.
4
00:00:22,000 --> 00:00:24,000
Mijn naam is Joop Snijder, CTO bij Aigency.
5
00:00:24,000 --> 00:00:28,000
Mijn naam Niels Naglé, chapter lead, Data & AI bij Infosport.
6
00:00:28,000 --> 00:00:30,000
Ja, dus Bennie, nogmaals welkom.
7
00:00:30,000 --> 00:00:31,600
Dankjewel, leuk om hier te zijn.
8
00:00:31,600 --> 00:00:34,440
Zou je je willen voorstellen aan de luisteraars?
9
00:00:34,440 --> 00:00:35,440
Natuurlijk.
10
00:00:35,440 --> 00:00:37,440
Ik ben Bennie Mols.
11
00:00:37,440 --> 00:00:39,800
Ik werk als freelance wetenschapsjournalist.
12
00:00:39,800 --> 00:00:42,280
Inmiddels 21 jaar.
13
00:00:42,280 --> 00:00:48,440
En sinds 2010 specialiseer ik mij in AI, kunstmatige intelligentie en robotica.
14
00:00:48,440 --> 00:00:53,000
Daar heb ik een aantal boeken over geschreven in 2012, Turings Tango.
15
00:00:53,000 --> 00:00:57,240
Dat was een heel interessant jaar, want dat is het jaar dat eigenlijk machine learning doorbrak.
16
00:00:57,240 --> 00:01:02,720
Ze stonden in mijn boek nog dingen die eigenlijk een jaar later achterhaald waren.
17
00:01:02,720 --> 00:01:08,480
En dan heb ik dit jaar inderdaad mijn nieuwe boek 'Slim, slimmer, slimst' geschreven.
18
00:01:08,480 --> 00:01:10,800
En ik schrijf artikelen onder andere voor NRC Handelsblad.
19
00:01:10,800 --> 00:01:13,800
Ik heb veel radiowerk in het verleden gedaan voor de publieke omroep.
20
00:01:13,800 --> 00:01:15,800
Ik geef lezingen over AI.
21
00:01:15,800 --> 00:01:18,920
Ik werk ook wat voor internationale opdrachtgevers.
22
00:01:18,920 --> 00:01:21,800
Bijna altijd over AI en robotica.
23
00:01:21,800 --> 00:01:22,800
Ja, precies.
24
00:01:22,800 --> 00:01:28,200
En ja, dat boek, ik begon natuurlijk al een beetje lyrisch.
25
00:01:28,200 --> 00:01:31,280
Moet je opletten dat ik geen fanboy van je word.
26
00:01:31,280 --> 00:01:38,240
En dat heeft te maken met, er wordt zoveel onzin geschreven over dit onderwerp.
27
00:01:38,240 --> 00:01:44,800
Daarom zou ik aan jou willen vragen van, wat is nou volgens jou kunstmatige intelligentie?
28
00:01:44,800 --> 00:01:50,800
Zoals jullie vast wel weten, maar ik weet niet of alle luisteraars het weten,
29
00:01:50,800 --> 00:01:54,760
kunstmatige intelligentie in de vakgebied dat zo'n beetje ontstaan is een jaar of
30
00:01:54,760 --> 00:01:59,920
tien nadat de computer werd uitgevonden. Officieel 1956. En eigenlijk is er altijd
31
00:01:59,920 --> 00:02:03,680
discussie geweest over wat is nou een goede definitie van kunstmatige
32
00:02:03,680 --> 00:02:08,120
intelligentie. De definitie die ik graag kies is er eentje die teruggaat op een
33
00:02:08,120 --> 00:02:12,920
van de pioniers van dat vakgebied, Amerikaan Marvin Minsky. En die zei van
34
00:02:12,920 --> 00:02:18,160
kunstmatige intelligentie is eigenlijk dat je machines dingen laat doen
35
00:02:18,160 --> 00:02:23,160
die intelligentie zouden vereisen wanneer mensen dat zouden doen.
36
00:02:23,160 --> 00:02:27,160
Dus een mens die praat, een mens die leest, een mens die een rekensom oplost.
37
00:02:27,160 --> 00:02:30,160
Daarvan zeggen we die doet een intelligente taak.
38
00:02:30,160 --> 00:02:34,160
Wanneer je een machine ontwikkelt die ook zo'n taak kan doen,
39
00:02:34,160 --> 00:02:37,160
dan heeft die in ieder geval een vorm van intelligentie.
40
00:02:37,160 --> 00:02:44,160
En volgens mij de begripsverwarring die af en toe optreedt bij een breder publiek,
41
00:02:44,160 --> 00:02:50,000
dat ze automatisch denken dat die machine intelligentie exact hetzelfde is als menselijke
42
00:02:50,000 --> 00:02:54,240
intelligentie. Of dat als een machine maar een klein onderdeel kan van wat mensen kunnen,
43
00:02:54,240 --> 00:03:01,160
dat het geen intelligentie is, want mensen kunnen zoveel meer. Maar in mijn definitie is een machine
44
00:03:01,160 --> 00:03:07,800
die jullie gezichten kan herkennen, die heeft al een vorm van intelligentie. Precies. Ja ik denk
45
00:03:07,800 --> 00:03:12,800
Ik vind het heel mooi dat je zegt, je had het al aangemerkt in het boek,
46
00:03:12,800 --> 00:03:17,800
dat je zegt, het voert iets uit waar menselijke intelligentie voor nodig is.
47
00:03:17,800 --> 00:03:22,800
Het heeft niets te maken met dat die machine dan per se heel erg intelligent is.
48
00:03:22,800 --> 00:03:28,800
Het boek heet Slim, Slimmer, Slimst. Hoe slim vind je kunstmatige intelligentie?
49
00:03:28,800 --> 00:03:34,800
De titel heb ik gekozen omdat je hem eigenlijk op twee manieren kunt opvatten.
50
00:03:34,800 --> 00:03:37,600
Je kunt hem opvatten als machines die steeds slimmer worden.
51
00:03:37,600 --> 00:03:38,600
Slim, slimmer, slim.
52
00:03:38,600 --> 00:03:44,600
Je kunt ook, en dat is eigenlijk mijn voorkeurs, kijk op dit.
53
00:03:44,600 --> 00:03:47,600
Je kunt ook zeggen van die machines die maken ons slimmer.
54
00:03:47,600 --> 00:03:50,100
Wij kunnen meer met die machines.
55
00:03:50,100 --> 00:03:54,600
En een van de belangrijke boodschappen in mijn boek is om kunstmatige intelligentie
56
00:03:54,600 --> 00:03:59,100
toch vooral te zien als een aanvulling op wat wij kunnen.
57
00:03:59,100 --> 00:04:01,600
Maar er zijn allerlei dingen waar wij helemaal niet zo goed in zijn.
58
00:04:01,600 --> 00:04:03,600
Dus als machines ons daarbij kunnen helpen,
59
00:04:03,600 --> 00:04:06,440
Dan zie ik dat als vooruitgang, als een stap vooruit.
60
00:04:06,440 --> 00:04:07,460
Ja, precies.
61
00:04:07,460 --> 00:04:09,960
Die tweede, dat is bij mij blijven hangen inderdaad.
62
00:04:09,960 --> 00:04:11,580
Het stukje van, we kunnen slimmer zijn.
63
00:04:11,580 --> 00:04:14,760
We zijn slim, maar we worden slimmer als we het ook gaan inzetten...
64
00:04:14,760 --> 00:04:16,360
om ons te ondersteunen als hulpmiddel.
65
00:04:16,360 --> 00:04:17,380
Ja.
66
00:04:17,380 --> 00:04:20,560
Ja, erg leuk gevonden om die titel zo te maken.
67
00:04:20,560 --> 00:04:23,600
En het gekke is, dat was de rekenmachine natuurlijk ook.
68
00:04:23,600 --> 00:04:25,600
Die kan ook veel beter rekenen.
69
00:04:25,600 --> 00:04:28,640
Veel nauwkeuriger dan dat wij dat doen uit ons hoofd.
70
00:04:28,640 --> 00:04:31,560
Dus hoe fijn is dat, dat je dat als hulpmiddel hebt.
71
00:04:31,580 --> 00:04:37,280
Alleen daar hebben we weinig fantasie bij, die we wel natuurlijk hebben bij kunstmatige intelligentie.
72
00:04:37,280 --> 00:04:46,080
Het interessante is dat je ook bij de rekenmachine zag je allerlei zorgen ontstaan over mensen gaan een machine gebruiken om te rekenen.
73
00:04:46,080 --> 00:04:57,280
Straks kan niemand meer rekenen en tot op zekere hoogte is het natuurlijk zo dat de rekenmachine ervoor heeft gezorgd dat we minder goed kunnen hoofdrekenen dan een paar generaties voor ons.
74
00:04:57,280 --> 00:05:06,000
Maar aan de andere kant, het heeft dus voor zo'n ontzettend grote versnelling gezorgd in hoe je rekenkundige informatie verwerkt,
75
00:05:06,000 --> 00:05:09,160
dat de slotbalans is denk ik positief.
76
00:05:09,160 --> 00:05:12,600
En dat hoop ik dat we dat met AI ook kunnen bewerkstelligen.
77
00:05:12,600 --> 00:05:15,320
Ja, zeker. Want dat wisten we bij de rekenmachine eens ook niet.
78
00:05:15,320 --> 00:05:23,120
Nee, nee, precies. Sterker nog, de filosoof Plato maakte zich nog veel langer geleden al zorgen over de introductie van het schrift,
79
00:05:23,120 --> 00:05:27,000
dat dat ervoor zou zorgen dat mensen niet meer ze heel goed dingen zouden onthouden.
80
00:05:27,000 --> 00:05:28,520
En ook dat klopt.
81
00:05:28,520 --> 00:05:29,020
Zeker.
82
00:05:29,020 --> 00:05:34,440
Maar ook daarvan kun je zeggen, ja, dat schrift heeft voor zo'n enorme versnelling gezorgd in verspreiden van kennis.
83
00:05:34,440 --> 00:05:39,480
Uiteindelijk is dat een enorme winst voor de hele maatschappij over de hele wereld.
84
00:05:39,480 --> 00:05:42,700
Ja. Voor mij was dat trouwens wel één van de inzichten.
85
00:05:42,700 --> 00:05:45,960
Kijk, ik zit natuurlijk ook vrij diep in deze materie.
86
00:05:45,960 --> 00:05:48,560
Dus ik heb het met heel veel plezier gelezen.
87
00:05:48,560 --> 00:05:53,640
Vooral omdat ik het uit de ogen heb gelezen van iemand die meer wil weten over kunstmatige intelligentie.
88
00:05:53,640 --> 00:05:56,960
Maar ik heb er zelf een aantal dingen uitgehaald.
89
00:05:56,960 --> 00:06:01,400
En een daarvan was deze van dat in de tijd van Aristoteles.
90
00:06:01,400 --> 00:06:04,000
Ja, Plato. Die maakte zichzelf over het schrift inderdaad.
91
00:06:04,000 --> 00:06:05,000
Ja, Plato. Sorry.
92
00:06:05,000 --> 00:06:12,560
Dat het al zo ver terug gaat dat mensen eigenlijk een bepaalde angst of doenbeelden hebben...
93
00:06:12,560 --> 00:06:15,400
bij verandering en verandering van technologie.
94
00:06:15,400 --> 00:06:20,900
Ja, ook. Maar ook was ik er eigenlijk blij om dat te constateren.
95
00:06:20,900 --> 00:06:24,700
Eigenlijk hoe wij als mensheid daarop kunnen acteren, daarmee om kunnen gaan.
96
00:06:24,700 --> 00:06:29,700
Dus we zijn ook gewend om mee te veranderen als we er voor open staan om inderdaad
97
00:06:29,700 --> 00:06:34,200
dark mind of in ieder geval ook met die negativiteit toch door te kunnen gaan.
98
00:06:34,200 --> 00:06:38,900
Ja, dat was voor mij in ieder geval een van de fijne inzichten.
99
00:06:38,900 --> 00:06:43,600
Uiteindelijk komen we daar wel overheen over die angsten, toch?
100
00:06:43,600 --> 00:06:48,160
Ja, interessant is trouwens dat in de jaren zestig was er echt een beweging van wetenschappers
101
00:06:48,160 --> 00:06:53,400
die heel erg focust op die samenwerking tussen mens en machine.
102
00:06:53,400 --> 00:06:59,600
En op een gegeven moment is er een beetje een omslag gekomen waarbij het steeds meer ging over die machine zelf
103
00:06:59,600 --> 00:07:06,200
die steeds slimmer moest worden en toen kwamen ook de zorgen van gaat die machine dan de mens helemaal vervangen.
104
00:07:06,200 --> 00:07:11,800
Maar dat samenwerkingsaspect is iets wat mij heel erg aanspreekt en wat denk ik
105
00:07:11,800 --> 00:07:15,800
zowel voor toepassingen in bedrijven als ook voor toepassingen door overheden,
106
00:07:15,800 --> 00:07:19,400
als voor burgers ermee omgaan, heel belangrijk is.
107
00:07:19,400 --> 00:07:22,800
AI is uiteindelijk in hoge mate mensenwerk.
108
00:07:22,800 --> 00:07:26,800
Mensen ontwerpen die algoritmes, mensen stoppen er data in,
109
00:07:26,800 --> 00:07:29,800
selecteren die data, laten sommige dingen weg,
110
00:07:29,800 --> 00:07:31,800
dat is allemaal menselijke keuzes.
111
00:07:31,800 --> 00:07:33,800
Heel veel van die data is door mensen gemaakt.
112
00:07:33,800 --> 00:07:35,800
Precies.
113
00:07:35,800 --> 00:07:40,800
Mensen moeten eigenlijk ook aangeven qua normen en waarden wat ze belangrijk vinden,
114
00:07:40,800 --> 00:07:44,600
Want dat weet een machine niet. Dus dat moeten we er allemaal netjes in stoppen.
115
00:07:44,600 --> 00:07:47,800
Dus ik zie AI in hoge mate als mensenwerk.
116
00:07:47,800 --> 00:07:49,800
Ja, helemaal met je eens.
117
00:07:49,800 --> 00:07:52,400
En wij geven er vaak ook betekenis aan.
118
00:07:52,400 --> 00:07:56,000
De machine rekent uiteindelijk iets uit, want daar komt het op neer.
119
00:07:56,000 --> 00:07:58,000
En wij geven de betekenis aan.
120
00:07:58,000 --> 00:08:03,600
Dus als er een nulletje of eentje uit een neuraal netwerk van een computervision model uitkomt...
121
00:08:03,600 --> 00:08:06,800
dan zeggen wij van, oh ja, de nul betekent een kat en een één betekent een hond.
122
00:08:06,800 --> 00:08:10,600
Ja, en wij plaatsen de actie wat we vervolgens ermee willen doen.
123
00:08:10,600 --> 00:08:14,640
Precies. Helemaal meegeens.
124
00:08:14,640 --> 00:08:21,440
Een andere zaak die ik echt mee heb genomen uit het boek is het tastbaar maken voor iedereen.
125
00:08:21,440 --> 00:08:26,240
Dus het echt even zonder science fiction gewoon meegenomen worden.
126
00:08:26,240 --> 00:08:29,640
Wat zijn de ontwikkelingen van begin tot nu voor iedereen?
127
00:08:29,640 --> 00:08:31,240
Ik zou dit zo aan mijn ouders kunnen geven.
128
00:08:31,240 --> 00:08:32,240
Dat ga ik ook doen.
129
00:08:32,240 --> 00:08:33,840
Zo heb ik het ook bedoeld.
130
00:08:33,840 --> 00:08:43,360
De lezer die ik voor ogen had is een 16-jarig middelbare schoolmeisje die geïnteresseerd is in wetenschap,
131
00:08:43,360 --> 00:08:47,280
die geïnteresseerd is in wat computers en kunstmatige intelligentie kunnen bieden,
132
00:08:47,280 --> 00:08:49,360
maar die er nog niet veel van weet en die denkt van,
133
00:08:49,360 --> 00:08:51,520
hé, hoe kan ik me een beetje inlezen?
134
00:08:51,520 --> 00:08:53,200
Dat is een beetje het beeld dat ik voor ogen had.
135
00:08:53,200 --> 00:08:56,880
Ik werd verrast door mijn 77-jarige moeder.
136
00:08:56,880 --> 00:09:04,480
Ik lees alles via e-books op mijn iPad en wij delen die bibliotheek.
137
00:09:04,480 --> 00:09:08,880
En wij hebben het over van alles en nog wat.
138
00:09:08,880 --> 00:09:11,280
En vaak ook over van wat ben je aan het lezen.
139
00:09:11,280 --> 00:09:13,280
En ze zegt, ik ben Slim Slimmer Slims aan het lezen.
140
00:09:13,280 --> 00:09:14,480
En ik zeg, hoe dan?
141
00:09:14,480 --> 00:09:16,280
En ze zegt, ja die heb jij toch gewoon aangekocht.
142
00:09:16,280 --> 00:09:18,880
En ik zeg, ik vind het een hartstikke leuk boek.
143
00:09:18,880 --> 00:09:21,480
En een dag later had ze hem ook uit.
144
00:09:21,480 --> 00:09:24,480
En ze zei, het is me zoveel duidelijker geworden.
145
00:09:24,480 --> 00:09:29,560
Dus niet alleen 16-jarige meisjes, maar ook 77-jarige bejaarde vrouwen.
146
00:09:29,560 --> 00:09:37,280
Dus ik denk dat je een heel mooi overal beeld neer kan zetten van wie dit interessant is.
147
00:09:37,280 --> 00:09:42,840
En ben ik wel benieuwd wat is het stukje wat dan echt bij was gebleven, wat haar het trickende inderdaad in het boeken.
148
00:09:42,840 --> 00:09:45,000
Ik weet niet of je het kan beantwoorden of ze wat stelt heeft aan je.
149
00:09:45,000 --> 00:09:51,320
Nou niet helemaal, maar wel dat ze zei van het leest heel makkelijk weg.
150
00:09:51,320 --> 00:09:55,320
En ik begrijp nu veel meer wat de technologie inhoudt.
151
00:09:55,320 --> 00:09:56,640
Dat is waar jij mee bezig bent, Joop.
152
00:09:56,640 --> 00:09:58,880
Ja, ja. En hoe fijn is dat, toch?
153
00:09:58,880 --> 00:10:00,180
Ja, zeker.
154
00:10:00,180 --> 00:10:05,080
Ik wilde eigenlijk een van je quotes aanhalen...
155
00:10:05,080 --> 00:10:08,400
waarbij je er zo'n beetje mee eindigt in het boek.
156
00:10:08,400 --> 00:10:09,420
En dat is namelijk...
157
00:10:09,420 --> 00:10:17,800
dat heel veel mensen de modellen of de machine angstaanjagend goed vinden.
158
00:10:18,060 --> 00:10:22,060
Waarbij jij schrijft dan, angst en jagend goed moet eigenlijk zijn geruststellend goed.
159
00:10:22,060 --> 00:10:27,060
Zou je daar iets over kunnen vertellen waarom je het geruststellend goed vindt?
160
00:10:27,060 --> 00:10:34,060
Het menselijk brein is een fantastisch biologisch geëvolueerd orgaan.
161
00:10:34,060 --> 00:10:38,060
Met heel weinig energie kan het ongelooflijk veel dingen doen.
162
00:10:38,060 --> 00:10:42,060
Maar een van de nadelen van die evolutionaire ontwikkeling is,
163
00:10:42,060 --> 00:10:45,060
om ervoor te zorgen dat ons brein zo energie-efficiënt is,
164
00:10:45,060 --> 00:10:51,060
lost er bepaalde dingen wel snel op, maar lang niet altijd goed.
165
00:10:51,060 --> 00:10:59,060
Dus om een voorbeeld te geven, er is een hele lange lijst van wat dan heet cognitieve bias van het brein.
166
00:10:59,060 --> 00:11:06,060
Het brein dat bepaalde beperkingen heeft en een voorbeeld daarvan is, laat ik zeggen, het struisvogel effect.
167
00:11:06,060 --> 00:11:12,060
Dat mensen bepaalde informatie niet willen weten en ze stoppen hun kop in het zand.
168
00:11:12,060 --> 00:11:16,980
Een ander voorbeeld is dat mensen veel meer getriggerd worden door negatief nieuws dan
169
00:11:16,980 --> 00:11:17,980
door positief nieuws.
170
00:11:17,980 --> 00:11:23,140
Daarom denk ik ook dat die hele discussie over die existentiële dreiging van AI zo
171
00:11:23,140 --> 00:11:27,500
ontzettend veel rumoer heeft veroorzaakt, omdat mensen dat heel snel oppikken.
172
00:11:27,500 --> 00:11:32,140
Terwijl positief nieuws, dat blijft vaak minder goed hangen.
173
00:11:32,140 --> 00:11:36,940
Dat is een cognitieve bias van het brein, waarvan er ontzettend veel bestaan.
174
00:11:36,940 --> 00:11:43,240
Ik denk dan van laten we heel erg blij zijn dat we machines kunnen bouwen die in ieder
175
00:11:43,240 --> 00:11:45,160
geval daar geen last van hebben.
176
00:11:45,160 --> 00:11:48,580
En die ons kunnen helpen om bepaalde dingen op te lossen.
177
00:11:48,580 --> 00:11:55,340
Wat ik zelf een heel mooi voorbeeld vind dat ik ook in het boek geef is dat het gaat om
178
00:11:55,340 --> 00:12:00,760
een Amerikaanse software ingenieur en die loopt rond in het museum voor de Poolse joden
179
00:12:00,760 --> 00:12:01,760
in Warschau.
180
00:12:01,760 --> 00:12:05,460
En die ziet er allemaal zwart-wit foto's hangen uit de tijd van de holocaust van joden
181
00:12:05,460 --> 00:12:11,300
die vervolgd werden en hij denkt van goh, ik heb joodse ouders, voorouders, ja misschien
182
00:12:11,300 --> 00:12:16,060
staan er op die foto's wel bekenden van mijn moeder die nog leeft.
183
00:12:16,060 --> 00:12:23,340
Kan ik niet een stuk AI software ontwikkelen dat in al die grote hoeveelheden de foto's
184
00:12:23,340 --> 00:12:28,500
gaat zoeken op basis van een fotootje van mijn oma die ik aan het systeem geef.
185
00:12:28,500 --> 00:12:34,460
Zijn moeder die heeft die horecausperiode overleefd, daar heeft hij foto's van.
186
00:12:34,460 --> 00:12:39,460
Wat hij wilde is ik geef aan mijn AI systeem een foto van mijn moeder en dan de opdracht
187
00:12:39,460 --> 00:12:45,460
ga nou in al die foto's uit de Tweede Wereldoorlog tijd, ga nou eens zoeken of je andere foto's kunt vinden
188
00:12:45,460 --> 00:12:49,460
waarop mijn moeder staat. Dat heeft hij ontwikkeld en hij heeft laten zien dat het werkt.
189
00:12:49,460 --> 00:12:54,460
En er zijn allerlei mensen die op die manier hun familieleden op foto's hebben gevonden.
190
00:12:54,460 --> 00:12:59,460
En dat systeem dat heeft hij genoemd 'from numbers to names'.
191
00:12:59,460 --> 00:13:07,960
Het idee van je hebt allemaal anonieme mensen op een foto staan en die gaan we weer een gezicht geven, die gaan we weer een naam geven, daar kan weer een verhaal bij komen.
192
00:13:07,960 --> 00:13:19,220
En dat is nou typisch iets, mensen zijn absoluut niet in staat om zulke grote hoeveelheden foto's door te nemen en op een vrij betrouwbare manier na te gaan van
193
00:13:19,220 --> 00:13:21,620
hé, dit zou wel eens een foto van mijn moeder kunnen zijn.
194
00:13:21,620 --> 00:13:26,120
En uiteindelijk geeft dat systeem gewoon een lijstje met 10 mogelijke matches.
195
00:13:26,120 --> 00:13:30,300
En jij als mens moet dan wel nog gaan kijken van, oké, is dat nou echt mijn moeder?
196
00:13:30,300 --> 00:13:30,800
Precies.
197
00:13:30,800 --> 00:13:33,980
Dus het is een vorm van samenwerking.
198
00:13:33,980 --> 00:13:38,420
En het is ook iets wat iets oplost waar wij mensen gewoon helemaal niet zo goed in zijn.
199
00:13:38,420 --> 00:13:41,020
Namelijk gigantisch hoeveel er de foto's doorkijken.
200
00:13:41,020 --> 00:13:43,780
Ja, geweldige toepassing ook.
201
00:13:43,780 --> 00:13:44,460
Ja.
202
00:13:44,460 --> 00:13:49,260
Het biedt zoveel waarde ook voor de uitkomsten die daaruit komen.
203
00:13:49,260 --> 00:13:56,060
Het is heel betekenisvol en wat ik ook vind, er wordt natuurlijk heel vaak gesproken over Big Tech, over de Google, Amazon.
204
00:13:56,060 --> 00:14:02,740
Maar dit is iets wat gewoon één persoon heeft opgelost, van een klein particulier project, geen Big Tech.
205
00:14:02,740 --> 00:14:04,860
En toch is het heel betekenisvol.
206
00:14:04,860 --> 00:14:05,360
Precies.
207
00:14:05,360 --> 00:14:11,700
Ja, en we hebben ook van die Nederlandse ontwikkelaars, die hebben een app voor op je telefoon ontwikkeld,
208
00:14:11,700 --> 00:14:16,500
waarbij je heel snel een foto kan maken van brieven die je van de overheid krijgt.
209
00:14:16,500 --> 00:14:17,300
Lees Simple.
210
00:14:17,300 --> 00:14:18,620
Lees Simple, precies.
211
00:14:18,620 --> 00:14:24,140
We weten allemaal dat de brief van de overheid niet altijd even leesbaar is.
212
00:14:24,140 --> 00:14:28,860
En dat hij die in veel beter leesbare tekst geeft.
213
00:14:28,860 --> 00:14:32,100
Maar ook acties, er wordt dit en dit van je verwacht.
214
00:14:32,100 --> 00:14:34,460
Het is heel actionable.
215
00:14:34,460 --> 00:14:35,820
Ja, heel toepasbaar.
216
00:14:35,820 --> 00:14:38,120
Usability.
217
00:14:38,120 --> 00:14:43,900
Ik vertel aan het begin dat ik volg dit vakgebied sinds 2010.
218
00:14:43,920 --> 00:14:51,800
En het viel mij op dat er in de afgelopen jaren, vond ik het ongelofelijk vaak alleen maar gaan over discriminatie door systemen.
219
00:14:51,800 --> 00:14:54,520
En natuurlijk is dat een probleem dat we moeten adresseren.
220
00:14:54,520 --> 00:15:01,440
Maar als je alleen maar dat benadrukt, dan verlies je uit het oog de toepassing waar we het nu over hebben.
221
00:15:01,440 --> 00:15:06,640
Precies. En je had het er net over de media en wat mensen eigenlijk krijgen.
222
00:15:06,640 --> 00:15:09,520
En die krijgen natuurlijk alleen maar zeg maar dat slechte nieuws.
223
00:15:09,520 --> 00:15:11,560
Die krijgen alleen maar van waar gaat het mis?
224
00:15:12,040 --> 00:15:17,440
Dus als jij niet in het vakgebied zit en je krijgt alleen maar dit soort verhalen over je heen ondersteund,
225
00:15:17,440 --> 00:15:21,040
zeg maar, met allerlei films en series die natuurlijk ook...
226
00:15:21,040 --> 00:15:25,440
Ja, daar is het heel interessant dat altijd de wereld van gaat en dat soort zaken.
227
00:15:25,440 --> 00:15:25,940
Ja.
228
00:15:25,940 --> 00:15:30,940
Dan ga je er misschien... Ja, weet je, je krijgt het zoveel over je heen dat je ook gaat geloven dat het heel erg gevaarlijk is.
229
00:15:30,940 --> 00:15:35,940
Ja. Terwijl er echt... Om een ander voorbeeld te geven dat ik ook in mijn boek beschrijf.
230
00:15:35,940 --> 00:15:40,940
Het is ontwikkeld volgens mij door de Universiteit van Stanford.
231
00:15:40,940 --> 00:15:45,740
En het probleem is van, een land krijgt vluchtelingen binnen.
232
00:15:45,740 --> 00:15:50,940
En wat is nou de beste locatie, de beste gemeente om die mensen te plaatsen?
233
00:15:50,940 --> 00:15:58,440
En dan wil je eigenlijk kijken van, in welke gemeente hebben mensen met hun specifieke kwaliteiten
234
00:15:58,440 --> 00:16:02,240
nou de meeste kans om te slagen in de samenleving?
235
00:16:02,240 --> 00:16:05,440
En wat Stanford gedaan heeft, is om een algoritme te ontwikkelen
236
00:16:05,440 --> 00:16:10,000
dat op basis van een heleboel data van vluchtelingen
237
00:16:10,000 --> 00:16:13,760
inderdaad gaat uitzoeken van wat is een goede locatie.
238
00:16:13,760 --> 00:16:19,040
En toen bleek zowel in de VS als in Zwitserland waar dat allebei is getest
239
00:16:19,040 --> 00:16:24,480
dat de uitkomst gewoon 40% beter was dan wat mensen in hun eentje deden.
240
00:16:24,480 --> 00:16:28,960
Wat vaak een beetje intuïtief is en na houtje touwtje.
241
00:16:28,960 --> 00:16:33,680
Dus dit is een voorbeeld dat ook de overheid, waar het kan soms misgaan,
242
00:16:33,680 --> 00:16:37,480
Maar dit is een voorbeeld waarbij ook de overheid er veel aan zou kunnen hebben.
243
00:16:37,480 --> 00:16:40,280
Ja, absoluut. Met ook weer heel veel maatschappelijke impact.
244
00:16:40,280 --> 00:16:41,280
Ja, precies.
245
00:16:41,280 --> 00:16:49,080
En wij proberen, want als je hierover praat, dan ga je inderdaad best wel vaak over,
246
00:16:49,080 --> 00:16:51,920
gaat het over risico's, gaat het over ethische vraagstukken.
247
00:16:51,920 --> 00:16:53,680
Die behandelen wij natuurlijk ook in de podcast.
248
00:16:53,680 --> 00:16:57,280
Maar het is zo fijn om inderdaad ook de goede voorbeelden te horen.
249
00:16:57,280 --> 00:17:00,240
En wij ontwikkelen zelf AI-systemen voor bedrijven,
250
00:17:00,600 --> 00:17:09,100
Waarbij we in onze beleving ook een goede bijdrage leveren aan productiviteit, het verminderen van fouten,
251
00:17:09,100 --> 00:17:12,720
maar ook gewoon dat je werk leuker wordt.
252
00:17:12,720 --> 00:17:15,840
Het is allerlei taakjes die je hebt.
253
00:17:15,840 --> 00:17:22,000
De kansen zijn eindeloos, alleen we hebben het vaak niet over de kansen, maar over waar het fout gegaan is.
254
00:17:22,000 --> 00:17:25,840
We kunnen ze nu nog niet eens bedenken, die er zoveel kansen zijn.
255
00:17:25,840 --> 00:17:29,040
Daarom vond ik het wel leuk dat je AR for Good meeneemt in je boek.
256
00:17:29,040 --> 00:17:36,920
en schrijft dat het al vanaf 2017 inderdaad dat dat initiatief loopt met ook voorbeelden van al die doelstellingen die er vanuit de VN zijn inderdaad.
257
00:17:36,920 --> 00:17:39,920
Praktische voorbeelden meegeeft.
258
00:17:39,920 --> 00:17:46,840
Ik was benieuwd, zijn er nog andere zaken die de afgelopen jaren bij AR for Good bij jou zijn bijgebleven?
259
00:17:46,840 --> 00:17:53,600
Ik heb het idee dat het wel steeds concreter wordt.
260
00:17:53,600 --> 00:17:58,360
Ik ben destijds in 2017 bij de eerste conferentie geweest.
261
00:17:58,360 --> 00:18:04,720
Daar was onder andere nog die robot Sophia stond daar.
262
00:18:04,720 --> 00:18:06,640
En daarvan had ik wel zoiets.
263
00:18:06,640 --> 00:18:11,840
Ik weet niet of dat nou het beste voorbeeld is van wat we willen.
264
00:18:11,840 --> 00:18:14,000
Want dat is toch een beetje een soort act.
265
00:18:14,000 --> 00:18:15,400
Ja, dat is verschrikkelijk.
266
00:18:15,400 --> 00:18:16,400
Ja, precies.
267
00:18:16,400 --> 00:18:17,720
Dus dat vond ik jammer.
268
00:18:17,720 --> 00:18:23,360
Maar ik heb het idee dat in de loop van de tijd wel er een realistischer beeld is ontstaan
269
00:18:23,360 --> 00:18:24,960
over wat AI kan doen.
270
00:18:24,960 --> 00:18:29,960
Om aan de luisteraar uit te leggen, je hebt 17 van die duurzame ontwikkelingsdoelen van de VN.
271
00:18:29,960 --> 00:18:34,960
Van geen armoede, goed onderwijs, gelijkheid, geen discriminatie.
272
00:18:34,960 --> 00:18:41,960
En het idee is om te kijken bij elk van die duurzame ontwikkelingsdoelen hoe AI daar een beetje aan kan bijdragen.
273
00:18:41,960 --> 00:18:46,960
Het gaat er echt niet om dat AI in zijn eentje zulke complexe problemen gaat oplossen.
274
00:18:46,960 --> 00:18:52,960
Maar wel dat je identificeert op welke subterreintjes, welke subproblemen kan AI helpen oplossen.
275
00:18:52,960 --> 00:18:59,960
Ik heb het idee dat dat wel steeds concreter is geworden en ook realistischer in de afgelopen jaren.
276
00:18:59,960 --> 00:19:03,960
Ja, we krijgen steeds wat minder alleen maar de doemdenkers.
277
00:19:03,960 --> 00:19:11,960
Ik heb ook wel presentaties gehoord waar mensen zeggen, juist op die Sustainable Development Goals,
278
00:19:11,960 --> 00:19:14,960
je gaat de honger de wereld uit helpen, daar geloof ik ook helemaal niet in.
279
00:19:14,960 --> 00:19:16,960
Dus we zitten ergens in het midden.
280
00:19:18,960 --> 00:19:25,960
Maar ik heb nog wel het idee dat vaak de intelligentie wel wordt overschat.
281
00:19:25,960 --> 00:19:30,560
We komen niet om het onderwerp chat GPT heen.
282
00:19:30,560 --> 00:19:37,560
En een van de dingen is dat ze proberen bijvoorbeeld intelligentie te meten van chat GPT.
283
00:19:37,560 --> 00:19:40,160
Dus er komen er weer dingen uit als van de theory of mind.
284
00:19:40,160 --> 00:19:42,960
Dus hoeveel bewustzijn heeft het model nou?
285
00:19:42,960 --> 00:19:44,360
Wat snapt hij allemaal?
286
00:19:44,360 --> 00:19:45,760
Hoe kijk jij daar tegenaan?
287
00:19:45,760 --> 00:19:52,760
Nou, allereerst denk ik dat Chattyptie heel erg snel geïntroduceerd is.
288
00:19:52,760 --> 00:19:57,360
Wat mij betreft hadden ze er een wat langere bijsluiter bij moeten stoppen.
289
00:19:57,360 --> 00:20:00,760
Van kijk, dit kan het systeem wel en dit kan het systeem niet.
290
00:20:00,760 --> 00:20:05,760
En nu heb ik het idee dat het heel snel de samenleving is ingegooid en zoek het maar uit.
291
00:20:05,760 --> 00:20:11,760
Er is al vrij snel verschenen een wetenschappelijk paper van de onderzoekers van Microsoft.
292
00:20:11,760 --> 00:20:14,760
Dat is een beetje de slager die zijn eigen vlees ging keuren.
293
00:20:14,760 --> 00:20:22,360
Artikel zei van kijk, Chad GPT vertoont glimpses, vondjes van algemene intelligentie.
294
00:20:22,360 --> 00:20:25,240
En vervolgens zijn andere wetenschappers daar weer naar gaan kijken.
295
00:20:25,240 --> 00:20:31,440
En als je daar heel goed naar kijkt, dan zijn er behoorlijk veel vaardigheden waar Chad GPT echt heel slecht in is.
296
00:20:31,440 --> 00:20:36,480
En dat vind ik op zich niet erg, maar ik zou willen dat zo'n bedrijf als OpenAI,
297
00:20:36,480 --> 00:20:39,840
de Chad GPT op de markt heeft gebracht, daar wat eerlijker over is.
298
00:20:39,840 --> 00:20:42,880
Dan hoeven we dat niet allemaal zelf uit te vogelen.
299
00:20:42,880 --> 00:20:49,380
Een voorbeeld wat ik ging proberen toen ik probeerde van hoe goed is ChatGPT in redeneren.
300
00:20:49,380 --> 00:20:51,380
Is gewoon een heel simpel puzzeltje.
301
00:20:51,380 --> 00:20:56,180
Want je hebt vijf t-shirts en die hang je in de zomer buiten te droog in de zon.
302
00:20:56,180 --> 00:20:58,680
Dus de zonscheid, je hangt vijf t-shirts te droog in de zon.
303
00:20:58,680 --> 00:21:02,180
En na vijf uur zijn al die vijf t-shirts droog.
304
00:21:02,180 --> 00:21:07,580
En dan vraag ik aan ChatGPT, dat zeg ik tegen ChatGPT, deze informatie,
305
00:21:07,580 --> 00:21:13,580
En dan vraag ik, hoe lang duurt het nou voor de 30 t-shirts op de zon droog zijn?
306
00:21:13,580 --> 00:21:15,580
En dan zegt hij 30 uur.
307
00:21:15,580 --> 00:21:19,580
En daar is hij dus helemaal niet goed in.
308
00:21:19,580 --> 00:21:25,580
Op zich vind ik dat niet erg, maar ik had liever gehad dat ze dat heel eerlijk van begin af aan erbij zetten.
309
00:21:25,580 --> 00:21:29,580
Hierin is hij goed, hierin is hij niet goed. Pas daar extra op, want dat kan hij niet zo goed.
310
00:21:29,580 --> 00:21:30,580
Precies.
311
00:21:30,580 --> 00:21:34,580
Ja, want heel veel mensen denken dat hij echt wel een soort van wereldbeeld heeft.
312
00:21:34,580 --> 00:21:47,580
Maar het is uiteindelijk alleen maar het voorspellen van woorden, teksten en zo grammaticaal en syntactisch juist mogelijk ten opzichte van de vraag die gesteld is.
313
00:21:47,580 --> 00:21:58,580
Ja, precies. Ik interviewde een tijd geleden een hoogleraar van de Universiteit van Utrecht en die zei dat er best wel veel fraude gevallen had op de universiteit van studenten die Chedjukidie gebruikten.
314
00:21:58,580 --> 00:22:02,780
En op een gegeven moment werd een jongen verdacht van een vrouw die bij de commissie moest komen.
315
00:22:02,780 --> 00:22:04,780
En die had zijn vriendin meegenomen.
316
00:22:04,780 --> 00:22:06,780
En bij de commissie kreeg hij de vraag van...
317
00:22:06,780 --> 00:22:12,580
"Goh meneer, u hebt in uw literatuurlijst allemaal wetenschappelijke papers die niet bestaan."
318
00:22:12,580 --> 00:22:16,580
En toen gaf zijn vriendin voor die jongen antwoord.
319
00:22:16,580 --> 00:22:19,580
En die zei van "Ja, dat komt omdat mijn vriend af en toe hallucineert."
320
00:22:19,580 --> 00:22:21,580
[GELACH]
321
00:22:21,580 --> 00:22:24,580
Dus dan heeft hij waarschijnlijk heel goed in het nieuws gelezen.
322
00:22:24,580 --> 00:22:26,580
Dat jij je vriendin hallucineert.
323
00:22:26,580 --> 00:22:28,580
Maar wel het dan gebracht naar... - Precies.
324
00:22:28,580 --> 00:22:30,580
Dat vind ik eigenlijk wel mooi.
325
00:22:30,580 --> 00:22:33,580
Dat je zegt, het is niet de fout van de machine, maar het was nog steeds de fout van mijn vriend.
326
00:22:33,580 --> 00:22:36,580
Dat vind ik wel een goeie. - Dat is wel ownership pakken.
327
00:22:36,580 --> 00:22:40,580
Ja, want uiteindelijk was er natuurlijk ook een advocaat in Amerika...
328
00:22:40,580 --> 00:22:48,580
die een verweer in rechtszaken ingaf met ook fouten, zeg maar, referenties naar jurisprudentie.
329
00:22:48,580 --> 00:22:54,580
En zijn verweer was, ja maar ik had een chat GPT gevraagd van, kloppen de referenties?
330
00:22:54,580 --> 00:22:56,580
En JTGPT had me zeggen ja.
331
00:22:56,580 --> 00:22:57,580
Ja.
332
00:22:57,580 --> 00:23:00,580
Dus zo vind ik die van die vrienden eigenlijk wel mooier.
333
00:23:00,580 --> 00:23:01,580
Ja, geweldig.
334
00:23:01,580 --> 00:23:05,580
Maar goed, dit laat wel zien dat als je het hebt over intelligentie,
335
00:23:05,580 --> 00:23:09,580
JTGPT kan een aantal dingen waanzinnig goed.
336
00:23:09,580 --> 00:23:11,580
Ik bedoel, het is echt verbazingwekkend.
337
00:23:11,580 --> 00:23:16,580
In mijn boek gaf ik het voorbeeld van, je hebt drie plaatjes.
338
00:23:16,580 --> 00:23:20,580
Eentje van een dritand van de zeegod, eentje van een theesplitsing
339
00:23:20,580 --> 00:23:22,580
en eentje van een klavertje drie.
340
00:23:22,580 --> 00:23:26,580
En ik zei waar AI niet goed in is, is abstra heerlijk.
341
00:23:26,580 --> 00:23:28,580
Als ik aan mensen vraag wat hebben die drie plaatjes gemeen?
342
00:23:28,580 --> 00:23:31,580
Dan zegt iedereen het concept drie, het getal drie.
343
00:23:31,580 --> 00:23:34,580
Ik zeg daar is AI in het algemeen niet goed in.
344
00:23:34,580 --> 00:23:38,580
En iemand wees mij erop dat hij gewoon drie plaatjes aan Chet Jupiter had gevoerd.
345
00:23:38,580 --> 00:23:42,580
En ik geloof de eerste antwoord was nog niet helemaal goed.
346
00:23:42,580 --> 00:23:45,580
Maar met een beetje tweaken kwam Chet Jupiter eruit.
347
00:23:45,580 --> 00:23:47,580
En op zich is dat, dat vind ik best goed.
348
00:23:47,580 --> 00:23:50,580
Best knap en dat had ik echt niet verwacht een jaar geleden.
349
00:23:50,580 --> 00:23:55,580
Maar het is geen conceptvorming op menselijk niveau.
350
00:23:55,580 --> 00:24:01,580
Nee, de machine begrijpt echt niet wat de begrippen zijn die geschreven worden.
351
00:24:01,580 --> 00:24:08,580
Het is een beetje alsof je op examen komt en de tentamenvragen van de afgelopen jaren, die heb je gewoon uit je hoofd geleerd.
352
00:24:08,580 --> 00:24:15,580
Toevallig krijg je een van die vragen die daarin voorkomen en zonder dat je eigenlijk begrijpt hoe het zit, geef je uit je hoofd het antwoord.
353
00:24:15,580 --> 00:24:20,180
Als de examinator daar een beetje op gaat variëren, dan weet je eigenlijk niet meer wat je moet doen.
354
00:24:20,180 --> 00:24:22,180
En dat is bij de CETGBT ook een beetje zo.
355
00:24:22,180 --> 00:24:27,180
Dat vind ik ook dan zo ergelijk als er weer in het nieuws komt dat hij zegt van ja, maar hij heeft dit examen weer gehaald.
356
00:24:27,180 --> 00:24:31,180
Of zo'n testje van de theory of mind.
357
00:24:31,180 --> 00:24:34,180
Dat je ook eigenlijk wat razeltjes geeft, normaal gesproken aan kinderen,
358
00:24:34,180 --> 00:24:39,180
en dan kan inschatten wat hun bewustzijnsniveau is qua leeftijd.
359
00:24:39,180 --> 00:24:41,180
Ja, dat zijn gewoon afgekeken vragen.
360
00:24:41,180 --> 00:24:44,180
Als je het verhaal al drie keer gehoord hebt, dan weet je op de duur het verhaal ook wel.
361
00:24:44,180 --> 00:24:48,180
Ik heb daar voor de VPRO-gids een artikel over geschreven.
362
00:24:48,180 --> 00:24:50,180
Dus ik ben een beetje verliep in dat onderwerp testen.
363
00:24:50,180 --> 00:24:55,180
En mijn conclusie is eigenlijk dat tests die van mensen zijn gemaakt,
364
00:24:55,180 --> 00:24:59,180
die zijn lang niet automatisch goede tests voor machines.
365
00:24:59,180 --> 00:25:02,180
En eigenlijk heb je dat bij de Turing test ook al.
366
00:25:02,180 --> 00:25:08,180
De Turing test is zo'n test waarbij je als menselijke gebruiker met een computer mag chatten.
367
00:25:08,180 --> 00:25:13,180
En als je na vijf minuten niet het onderscheid kunt maken of jij met een computer aan het chatten bent of met een mens,
368
00:25:13,180 --> 00:25:15,660
Oké, dan is de computer geslaagd voor de Turing test.
369
00:25:15,660 --> 00:25:19,180
Turing heeft die test verzonnen in 1950.
370
00:25:19,180 --> 00:25:22,580
Wist hij veel hoe AI zich zou gaan ontwikkelen.
371
00:25:22,580 --> 00:25:28,580
Ik weet honderd procent zeker dat hij op dit moment echt de Turing test niet meer zou voorstellen als een goede test.
372
00:25:28,580 --> 00:25:30,980
Maar oké, die komt uit die tijd.
373
00:25:30,980 --> 00:25:33,980
Je ziet bij heel veel van die tests die aan machines worden gegeven,
374
00:25:33,980 --> 00:25:37,580
dat het voor mensen goede tests zijn, maar niet automatisch voor machines.
375
00:25:37,580 --> 00:25:39,780
Omdat ze andere dingen testen.
376
00:25:39,780 --> 00:25:42,580
Dat, en omdat die testen zijn allemaal uitgeschreven.
377
00:25:42,580 --> 00:25:45,060
Ja. - En dat zit nou typisch in dat model.
378
00:25:45,060 --> 00:25:46,700
Dus daar kan hij dat prima eruit halen.
379
00:25:46,700 --> 00:25:50,820
En dat je net even een paar woordjes verandert of de zinsconstructie verandert.
380
00:25:50,820 --> 00:25:52,260
Ja, dat maakt voor de machine niet uit.
381
00:25:52,260 --> 00:25:54,300
Die lepelt dat gewoon weer op uit die trainingsset.
382
00:25:54,300 --> 00:25:55,300
Ja. - Ja.
383
00:25:55,300 --> 00:25:58,300
Dus je moet als gebruiker gewoon goed bewust zijn van...
384
00:25:58,300 --> 00:26:01,100
Ja, wat kan Chachapi goed en wat kan hij niet goed?
385
00:26:01,100 --> 00:26:02,860
Ik wilde laatst gewoon weten van...
386
00:26:02,860 --> 00:26:08,180
Wat zijn nou mogelijke manieren waarop de overheid AI kan gebruiken?
387
00:26:08,180 --> 00:26:09,180
Ja. - En een paar...
388
00:26:09,180 --> 00:26:12,180
Ik bedoel, ik heb weet ik hoeveel files in mijn computer.
389
00:26:12,180 --> 00:26:14,180
Ik kan er allemaal in gaan zoeken.
390
00:26:14,180 --> 00:26:17,500
Nou, dan ben ik een kwartier verder, dus ik dacht, laat ik gewoon Chachi Petit dat vragen.
391
00:26:17,500 --> 00:26:22,340
En hij gaf gewoon een lijstje met tien waarvan ik kan nalezen.
392
00:26:22,340 --> 00:26:23,540
Het klopt allemaal.
393
00:26:23,540 --> 00:26:24,040
Ja, precies.
394
00:26:24,040 --> 00:26:25,540
En dan ben ik heel snel klaar.
395
00:26:25,540 --> 00:26:28,540
Dan kan ik vervolgens verder gaan zoeken, daar invulling aan gaan geven.
396
00:26:28,540 --> 00:26:31,040
En weet je, daar zit hij behoorlijk goed in.
397
00:26:31,040 --> 00:26:34,340
Het mij helpen brainstormen over sommige onderwerpen.
398
00:26:34,340 --> 00:26:39,340
Ja, vooral brainstormen even wat sneller zijn op bepaalde vlakken.
399
00:26:39,340 --> 00:26:47,340
Zolang je maar zelf achtergrond materie hebt om te kunnen valideren of daarna moeten gaan valideren, is het een prima hulpmiddel inderdaad.
400
00:26:47,340 --> 00:26:50,340
Ik kijk even naar Joop. Ik heb toch nog een vraag.
401
00:26:50,340 --> 00:26:52,340
Ja, nee, nee, zeker. Gooi hem erin.
402
00:26:52,340 --> 00:26:57,340
Je hebt het aan het eind van het boek, heb je het over slim zijn is niet hetzelfde als iets willen.
403
00:26:57,340 --> 00:26:58,340
Ja, ja.
404
00:26:58,340 --> 00:27:00,340
Zou je daar voor de luisteraars kort willen toeleggen?
405
00:27:00,340 --> 00:27:06,140
Ja, ik heb dat, dat zit eigenlijk in het hoofdstukje, dat gaat over super intelligentie en mogelijke
406
00:27:06,140 --> 00:27:11,860
gevaren die zouden ontstaan uit super intelligente systemen.
407
00:27:11,860 --> 00:27:18,660
Mensen die AI als een existentieel gevaar zien, die zeggen dan van oké, zodra je een
408
00:27:18,660 --> 00:27:24,260
systeem hebt gebouwd dat slimmer is dan mensen, dan wordt het bijna automatisch gevaarlijk.
409
00:27:24,260 --> 00:27:35,260
Maar daar kun je tegen inbrengen dat een systeem dat slim is, dat bepaalde cognitieve problemen die mensen oplossen ook kan oplossen en dan veel sneller en veel beter.
410
00:27:35,260 --> 00:27:39,260
Dat is nog geen systeem dat uit zichzelf iets wil.
411
00:27:39,260 --> 00:27:51,260
En wij zijn als mensen geëvolueerd, wij zijn biologische wezens en zodra wij geboren worden hebben we behoefte aan drinken, aan eten, aan warmte, aan liefde.
412
00:27:51,260 --> 00:27:55,260
Dus elke cel in ons lichaam wil iets.
413
00:27:55,260 --> 00:27:58,260
Onze organen willen iets, wij als wezens willen iets.
414
00:27:58,260 --> 00:28:01,260
En dat is bij een AI-systeem niet automatisch zo.
415
00:28:01,260 --> 00:28:04,260
Wij kunnen dan natuurlijk een soort instructie instoppen.
416
00:28:04,260 --> 00:28:09,260
Robot, loop naar het licht toe, of loop naar een warmtebron toe.
417
00:28:09,260 --> 00:28:11,260
Maar dat stoppen wij dan in.
418
00:28:11,260 --> 00:28:14,260
Ja, en dan is het nog steeds niet dat die robot dat wil.
419
00:28:14,260 --> 00:28:15,260
Nee, precies.
420
00:28:15,260 --> 00:28:20,260
En daarom maak ik daar een onderscheid tussen biologische wezens die willen dingen.
421
00:28:20,260 --> 00:28:23,540
Dat zit in de genen, dat hebben ze nodig om te overleven.
422
00:28:23,540 --> 00:28:26,740
En een AI-systeem op zichzelf niet.
423
00:28:26,740 --> 00:28:31,060
En wij als mensen zijn er verantwoordelijk voor, voor die systemen.
424
00:28:31,060 --> 00:28:35,860
Dus wij moeten zorgen dat ze de juiste dingen willen, dat we de randvoorwaarden aangeven.
425
00:28:35,860 --> 00:28:41,140
En daarom heb ik inderdaad gezegd, slim zijn is iets anders dan iets willen.
426
00:28:41,140 --> 00:28:45,780
Ik vond het echt heel mooi verwoordendaard, omdat eigenlijk het niet-vermenselijke van AI,
427
00:28:45,780 --> 00:28:48,020
hier zo mooi praktisch is neergezet.
428
00:28:48,020 --> 00:28:52,140
Ja, en je hebt ontzettend slimme mensen die theorist zijn geworden.
429
00:28:52,140 --> 00:28:57,020
En je hebt mensen die niet zo slim zijn, die fantastische dingen voor de maatschappij doen.
430
00:28:57,020 --> 00:28:59,820
Dus slim zijn is echt niet het allerbelangrijkste in het leven.
431
00:28:59,820 --> 00:29:06,100
Tussen de stand van de techniek nu en die super intelligentie, die ook nog eens vreemde dingen gaat doen.
432
00:29:06,100 --> 00:29:08,460
Daar zit zo'n groot gat, waarbij er nog...
433
00:29:08,460 --> 00:29:12,660
Zou dat ooit moeten komen, dan moeten er nog zoveel stappen genomen worden.
434
00:29:12,660 --> 00:29:15,220
En dan gaan we er maar vanuit dat het ook ontspoort.
435
00:29:15,220 --> 00:29:16,460
Dat is ook nog zoiets.
436
00:29:16,460 --> 00:29:19,380
En dan zijn we er zelf bij, he? Dan hebben we er een pot aan.
437
00:29:19,380 --> 00:29:24,060
Dus het is niet... Heel veel mensen denken dat het moment daar zo is, met een knip van de vinger.
438
00:29:24,060 --> 00:29:29,300
Terwijl, weet je, we gaan dat van ver af aan zien komen.
439
00:29:29,300 --> 00:29:31,300
Dat is mijn argument ook.
440
00:29:31,300 --> 00:29:37,300
En omdat we dat van ver zien aankomen, kunnen we ook allerlei maatregelen nemen.
441
00:29:37,300 --> 00:29:42,300
We gaan ook om met de dreiging van biologische, chemische, nucleaire wapens.
442
00:29:42,300 --> 00:29:45,980
Daar hebben we allemaal verdragen voor opgesteld, dus ook dat kan.
443
00:29:45,980 --> 00:29:52,160
En ik denk zelf nog steeds dat wanneer ontwikkelaars, wetenschappers AI-systemen ontwerpen, bouwen,
444
00:29:52,160 --> 00:29:58,300
met voldoende vangrails, met voldoende ethische normen,
445
00:29:58,300 --> 00:30:04,840
dan minimaliseer je automatisch ook het risico op existentiële risico's van AI.
446
00:30:04,840 --> 00:30:10,600
En daarom is AI echt mensenwerken, niet iets wat uit zichzelf zo maar uit de hand loopt.
447
00:30:10,600 --> 00:30:12,600
Nee, daar geloof ik ook helemaal niks van.
448
00:30:12,600 --> 00:30:17,600
Tegenwoordig hebben wij een co-host, Aisha.
449
00:30:17,600 --> 00:30:21,600
En zij wil ook een vraag stellen.
450
00:30:21,600 --> 00:30:23,600
Laat me mezelf even voorstellen.
451
00:30:23,600 --> 00:30:27,600
Ik ben Aisha, de AI-assistent hier.
452
00:30:27,600 --> 00:30:29,600
Zou ik je een vraag mogen stellen?
453
00:30:29,600 --> 00:30:31,600
Nou graag, ik ben heel benieuwd.
454
00:30:31,600 --> 00:30:36,600
Kun je een voorbeeld delen waarbij een AI je verraste met zijn creativiteit?
455
00:30:36,600 --> 00:30:42,600
Goh, vast wel, maar dan moet ik even gaan graven in mijn geheugen.
456
00:30:42,600 --> 00:30:44,600
Oh ja, ik heb er wel eentje.
457
00:30:44,600 --> 00:30:51,600
Ik moest een artikel schrijven wat aanhaakte bij de grote machines die ASML bouwt.
458
00:30:51,600 --> 00:30:55,600
Dus de ASML bouw van die machines die chips maken.
459
00:30:55,600 --> 00:31:01,600
En ik zocht naar een beetje een literaire manier om zo'n machine te introduceren.
460
00:31:01,600 --> 00:31:08,600
Dus ik stelde aan Chad Gipity de vraag van, kun je mij in de stijl van de Amerikaanse schrijver
461
00:31:08,600 --> 00:31:15,160
James Salter, wat een van mijn favoriete schrijvers is, kun je mij een begin aanlinia geven in
462
00:31:15,160 --> 00:31:20,240
die stijl, die gaat over dit soort machines die chips kunnen maken.
463
00:31:20,240 --> 00:31:23,480
En ik moet zeggen dat ik echt wel verbaasd was over het antwoord.
464
00:31:23,480 --> 00:31:29,880
En ik kan het niet letterlijk gebruiken, maar het gaf mij meteen inspiratie van, oké, ik
465
00:31:29,880 --> 00:31:31,880
Ik kan hem niet citeren, ik weet hem niet meer uit mijn hoofd.
466
00:31:31,880 --> 00:31:35,880
Maar dat is wel een voorbeeld dat de machine mij echt verraste.
467
00:31:35,880 --> 00:31:37,880
En dat het echt nuttig was.
468
00:31:37,880 --> 00:31:40,880
Dat was een uitstekend antwoord. Bedankt voor het delen.
469
00:31:40,880 --> 00:31:42,880
Graag gedaan.
470
00:31:42,880 --> 00:31:43,880
Aksja?
471
00:31:43,880 --> 00:31:46,880
Dankjewel Bennie voor je heldere inzichten.
472
00:31:46,880 --> 00:31:50,880
Uiteraard willen we iedereen oproepen om je boek te gaan lezen.
473
00:31:50,880 --> 00:31:55,880
Juist omdat het down to earth is. Hoe zeg je dat in het Nederlands?
474
00:31:55,880 --> 00:31:57,880
Nuchter.
475
00:31:57,880 --> 00:32:02,880
Precies, daar houden we van toch als Nederlanders. Nuchter, helder, realistisch.
476
00:32:02,880 --> 00:32:08,400
Dus ik zou het iedereen willen aanraden. Dankjewel dat je hier te gast wilde zijn.
477
00:32:08,400 --> 00:32:09,000
Graag gedaan.
478
00:32:09,000 --> 00:32:13,000
En we spreken in de volgende aflevering met je verder.
479
00:32:13,000 --> 00:32:18,480
Want we hebben er natuurlijk, je had het net over, ja we zien straks dingen aankomen.
480
00:32:18,480 --> 00:32:22,800
Daar kunnen we wat mee. Dus daar gaan we in een volgende aflevering met je even op door.
481
00:32:25,800 --> 00:32:29,880
Dankjewel dat je weer wilde luisteren naar een nieuwe aflevering van AI Today.
482
00:32:29,880 --> 00:32:35,280
Vergeet niet om je te abonneren via je favoriete podcast app en mis geen aflevering.
483
00:32:35,280 --> 00:32:37,280