
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E85 - Responsible AI agents met GPT-NL
Jesse van Oort, Responsible AI Researcher bij TNO, staat centraal in deze aflevering van AIToday Live over het GPT-NL-project. GPTNL ontwikkelt een soeverein Nederlands taalmodel als alternatief voor oplossingen van grote techbedrijven.
Van Oort legt uit dat AI-ontwikkeling steeds meer richting agents gaat, waarbij het initiatief verschuift van mens naar AI-systeem. Hij waarschuwt voor de gevolgen van toenemende autonomie bij AI-systemen, zoals snelle foutpropagatie en verhoogde emissies.
GPTNL streeft naar transparantie over gebruikte data en werkt samen met gemarginaliseerde gemeenschappen om bias te identificeren. Met een budget van 13 miljoen euro richt het project zich op specifieke doelen zoals het begrijpen en genereren van de Nederlandse taal.
Onderwerpen
- AI Agents en Agentic AI
- Het GPT-NL-project als Nederlands alternatief
- Data-acquisitie en -kwaliteit voor GPT-NL
- Transparantie en bias in AI-modellen
- Verantwoord gebruik van AI en toekomstvisie
Links
- Podcast: AIToday Live podcast
- Organisatie: TNO
- Project: GPT-NL
- Documentaire: Common Crawl
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: TNO - Naturalis - De Nederlandse Bank - NDP
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:06,840
In deze aflevering hoor je Jesse van Oort, Responsible AI Researcher bij TNO, die een
2
00:00:06,840 --> 00:00:14,440
unieke inkijk geeft in het GPT-NL project voor een soeverein Nederlands taalmodel als alternatief
3
00:00:14,440 --> 00:00:16,360
op de Big Tech oplossingen.
4
00:00:16,360 --> 00:00:22,520
Jesse deelt zijn expertise over verantwoorde AI agents en legt uit waarom transparantiedatabeheer
5
00:00:22,520 --> 00:00:28,160
en doelgericht ontwerp cruciaal zijn bij het ontwikkelen van AI systemen die we kunnen
6
00:00:28,160 --> 00:00:29,160
vertrouwen.
7
00:00:29,160 --> 00:00:31,160
Dus blijf luisteren!
8
00:00:32,840 --> 00:00:35,860
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
9
00:00:36,300 --> 00:00:38,000
Mijn naam is Joop Snijder, CTO bij Aigency.
10
00:00:38,300 --> 00:00:41,000
Mijn naam Nielsen Naglé, RIA Lead, Datingaar bij Info Support.
11
00:00:41,480 --> 00:00:44,280
En we hebben in de studio Jesse van Oort van TNO.
12
00:00:44,980 --> 00:00:47,740
Jesse, zou je jezelf eerst willen voorstellen aan de luisteraars?
13
00:00:48,300 --> 00:00:51,060
Ja, natuurlijk. Hi, ik ben Jesse van Oort.
14
00:00:51,920 --> 00:00:53,920
Ik was al gezegd, ik werk bij TNO.
15
00:00:54,380 --> 00:01:00,340
Maar het laatste jaar vooral bij GPT-NL, een soeverein Nederlands taalmodel als alternatief.
16
00:01:01,460 --> 00:01:02,900
op de modellen van Big Tech.
17
00:01:04,319 --> 00:01:08,220
Ik werk bij TNO als Responsible AI Researcher.
18
00:01:08,860 --> 00:01:12,440
Ja, en we hebben jou uitgenodigd om te praten over
19
00:01:13,220 --> 00:01:16,000
wat zijn nou eigenlijk Responsible AI Agents?
20
00:01:16,260 --> 00:01:17,920
Dat wordt het thema van dit gesprek.
21
00:01:18,720 --> 00:01:21,100
En om eerst even een stapje terug te doen,
22
00:01:21,100 --> 00:01:23,240
er zijn heel veel mensen die het best wel lastig vinden,
23
00:01:23,240 --> 00:01:26,500
wat is nou het verschil tussen agent en agentic AI?
24
00:01:27,220 --> 00:01:28,040
Hoe zie jij dat?
25
00:01:29,820 --> 00:01:31,020
Ja, goede vraag.
26
00:01:32,180 --> 00:01:36,240
Waarom we het meteen over agents hebben als het gaat over AI op dit moment is,
27
00:01:36,260 --> 00:01:40,520
omdat dat eigenlijk een beetje de trend is waar we naartoe gaan als het gaat om AI.
28
00:01:41,279 --> 00:01:50,180
Aigency betekent eigenlijk gewoon dat het initiatief steeds meer bij de software komt te liggen,
29
00:01:50,400 --> 00:01:53,760
bij het AI systeem, in plaats van bij de mens.
30
00:01:53,960 --> 00:01:58,760
waar nu de mens vooral nog degene is die het initiatief neemt,
31
00:01:58,920 --> 00:02:04,600
die naar de bijvoorbeeld chatbot gaat of naar het decision system en dan een vraag stelt,
32
00:02:06,900 --> 00:02:14,880
is de trend dat we steeds meer willen dat deze software eigenlijk zelf weet wat hij moet doen,
33
00:02:15,080 --> 00:02:19,500
gebaseerd op meer abstracte doelen die hij gesteld krijgt.
34
00:02:19,740 --> 00:02:25,380
En dat zodat er meer werk naar de agent kan in plaats van naar de mens.
35
00:02:27,460 --> 00:02:29,840
En hebben we het dan over een agent of hebben we het over agentic AI?
36
00:02:31,140 --> 00:02:34,460
Ja, ook dat is een goede vraag, want er is inderdaad veel verwarring over.
37
00:02:36,980 --> 00:02:43,220
Als het gaat over meer Aigency geven aan een systeem.
38
00:02:43,520 --> 00:02:44,040
Autonomie.
39
00:02:44,300 --> 00:02:45,280
Autonomie, ja.
40
00:02:45,940 --> 00:02:49,140
Dan gaat het toch meer om agentic AI.
41
00:02:49,380 --> 00:02:57,400
Het verschil tussen AI agents en agentic AI is dat een AI agent wel een beetje de semblance,
42
00:02:57,510 --> 00:03:08,660
een beetje de blijk heeft van dat het Aigency heeft, omdat je daarmee praat en het systeem zal terugpraten.
43
00:03:08,660 --> 00:03:12,940
En het kan zelfs op een soort van blijkbare proactieve manier.
44
00:03:13,880 --> 00:03:16,720
Maar dat zal vaker toch via workflows gaan.
45
00:03:17,780 --> 00:03:20,580
Als dit gebeurt, dan gebeurt dit.
46
00:03:21,420 --> 00:03:31,680
Terwijl als je meer agentic systems hebt, dan zal zo'n systeem veel meer abstracte doelen en abstracte tools en skills hebben.
47
00:03:32,400 --> 00:03:33,700
Dus middelen.
48
00:03:34,840 --> 00:03:43,400
En dan zal dat systeem zelf ook moeten beslissen hoe dit systeem het beste zijn middelen inzet om tot zijn doel te komen.
49
00:03:44,420 --> 00:03:46,320
Dus dat kunnen ook verschillende systemen zijn.
50
00:03:46,880 --> 00:03:50,820
Dus dan is het systeem eigenlijk degene die acties onderneemt om het doel te bereiken.
51
00:03:50,820 --> 00:03:54,500
In plaats van dat de mens telkens gaat zeggen wat moet er gebeuren, wat is de volgende stap.
52
00:03:55,340 --> 00:03:58,020
Ja, er zit best wel een significant verschil natuurlijk in.
53
00:03:58,090 --> 00:04:03,320
Want als je een AI agent hebt of iets wat meer een workflow dus is.
54
00:04:03,980 --> 00:04:06,160
Dan moet je dus eigenlijk nog steeds alles in programmeren.
55
00:04:06,220 --> 00:04:08,620
En dan weet je eigenlijk precies wat er gaat gebeuren.
56
00:04:08,780 --> 00:04:13,900
Dus voor de gebruiker kan het soms als niet veel verschillend overkomen.
57
00:04:14,280 --> 00:04:19,459
Maar voor de mogelijke gevolgen en de variantie in gevolgen die kunnen gebeuren,
58
00:04:20,640 --> 00:04:24,900
zit er best een groot verschil tussen een AI agent en een agentic AI systeem.
59
00:04:25,030 --> 00:04:26,740
Wat op zichzelf ook weer een spectrum is.
60
00:04:26,840 --> 00:04:30,460
Dus agentic AI, waar die grens dan ligt, wanneer wordt het agentic?
61
00:04:31,400 --> 00:04:32,940
Daar kun je natuurlijk ook weer over discussiëren.
62
00:04:32,940 --> 00:04:38,720
Maar als het heel agentic is, dan betekent het waarschijnlijk ook dat dat systeem heel veel verschillende keuzes kan maken,
63
00:04:38,750 --> 00:04:41,560
die je niet altijd allemaal van tevoren kunt bedenken.
64
00:04:42,440 --> 00:04:46,880
Zou je dat wat kunnen uitdiepen van de gevolgen waar je het over had?
65
00:04:48,800 --> 00:04:52,720
Ja, natuurlijk met de huidige techniek die er is.
66
00:04:53,260 --> 00:04:55,440
LLMs, chatbots.
67
00:04:57,240 --> 00:04:59,560
Daar zien we al best wel veel gevolgen van.
68
00:04:59,660 --> 00:05:10,020
Je ziet bijvoorbeeld dat mensen veel LLMs gebruiken als therapist of persoon om mee te praten.
69
00:05:10,220 --> 00:05:11,280
Om uit het isolement te komen.
70
00:05:14,720 --> 00:05:17,960
Daar kan niet heel veel foutieve informatie in komen natuurlijk.
71
00:05:18,330 --> 00:05:19,560
Dat kan heel schadelijk zijn.
72
00:05:21,700 --> 00:05:22,880
Het kost best wel veel energie.
73
00:05:24,260 --> 00:05:31,380
EI is een van de grootste groeiers als het gaat over emissies over de laatste jaren.
74
00:05:33,420 --> 00:05:35,440
Het kan ook aan over misinformatie.
75
00:05:38,580 --> 00:05:45,860
Nou ja, als je dus het systeem meer Aigency geeft, dan geef je het ook meer controle.
76
00:05:46,430 --> 00:05:48,840
En dan gaat het systeem ook sneller handelen.
77
00:05:49,800 --> 00:05:55,160
Het voordeel natuurlijk bij een systeem waar je slechts één persoon hebt, in een LLM,
78
00:05:55,560 --> 00:05:58,180
daar is een mens vooral de bottleneck.
79
00:05:58,390 --> 00:05:59,960
Een mens is redelijk traag.
80
00:06:00,680 --> 00:06:04,960
Een mens moet eerst met een vraag komen, moet eerst bedenken, nou wat wil ik stellen?
81
00:06:05,010 --> 00:06:06,480
En dan krijgt hij een antwoord.
82
00:06:07,480 --> 00:06:08,480
Moet hij interpreteren.
83
00:06:08,700 --> 00:06:09,880
En dan komt er misschien weer een vraag.
84
00:06:11,740 --> 00:06:14,240
Dat uit zichzelf is natuurlijk best wel een flinke rem.
85
00:06:15,700 --> 00:06:20,180
Maar computers zijn duizenden keren sneller dan tienduizenden keren.
86
00:06:22,520 --> 00:06:28,620
Dus als een LLM of een AI-systeem bijvoorbeeld iets wil weten van een ander systeem,
87
00:06:29,150 --> 00:06:32,420
dan kan dat heel vaak per seconde met een hele hoge frequentie.
88
00:06:32,780 --> 00:06:39,240
En die kunnen weer communiceren met andere bots met hele hoge frequentie.
89
00:06:39,440 --> 00:06:42,860
Dat lijkt dus tot hele grote emissies potentieel.
90
00:06:44,320 --> 00:06:50,240
Als er een fout is, als hij een antwoord teruggeeft aan een mens,
91
00:06:50,560 --> 00:06:52,360
dan kan die mens in ieder geval nog kijken van oké,
92
00:06:53,320 --> 00:06:56,680
ik neem een beetje de tijd om dit te analyseren, kijken of er een fout in zit.
93
00:06:58,940 --> 00:07:01,980
Voordat ik dit opstuur ergens naartoe, kan ik ergens naar kijken.
94
00:07:02,040 --> 00:07:06,740
Maar als een LLM zegt van dit is het goede antwoord en geeft dat door aan een ander LLM.
95
00:07:07,680 --> 00:07:09,820
Nou, dan neemt dat LLM dat al aan als waarheid.
96
00:07:09,870 --> 00:07:12,680
Want die heeft deze expert LLM gevraagd.
97
00:07:12,770 --> 00:07:13,380
Dat is gewoon de input.
98
00:07:13,720 --> 00:07:14,760
Ja, dat is mijn input.
99
00:07:16,500 --> 00:07:18,200
En daar krijg je dus weer error propagatie van.
100
00:07:20,040 --> 00:07:21,100
Garbage in, garbage out.
101
00:07:22,500 --> 00:07:27,240
Hoe vaker je dat achter elkaar zet, hoe groter die error propagatie wordt natuurlijk.
102
00:07:28,520 --> 00:07:34,820
Dus hoe meer Aigency, hoe meer LLM-problemen ook groter worden natuurlijk.
103
00:07:35,460 --> 00:07:37,800
Kan je wat vertellen over het onderzoek wat je uitvoert?
104
00:07:39,660 --> 00:07:44,780
Ja, dan moet ik zeggen dat op het moment mijn grootste bezigheid GPT-NL is.
105
00:07:47,299 --> 00:07:50,400
Dat is in principe ook onderzoek, maar er is ook veel implementatie.
106
00:07:52,060 --> 00:07:53,400
Laten we die dan aan elkaar verbinden.
107
00:07:53,700 --> 00:07:59,340
Hoe past het GPT-NL bij het ontwikkelen van Responsible AI Agents?
108
00:07:59,600 --> 00:08:03,700
En misschien voor de luisteraars die GPT-NL nog niet kennen, even kort toelichten van wat is het?
109
00:08:04,880 --> 00:08:07,460
Wat wil u ermee bereiken? Om even wat context te krijgen.
110
00:08:07,460 --> 00:08:08,060
Oh ja, heel goed.
111
00:08:08,780 --> 00:08:16,920
Ja, GPT-NL is deels gesubsidieerd door de overheid in 2023.
112
00:08:18,540 --> 00:08:30,920
De bedoeling is dat we een taalmodel maken dat voor Nederlandse kritieke infrastructuur zo functioneert dat het de huidige modellen kan vervangen.
113
00:08:32,000 --> 00:08:40,679
Zodat we een soeverein alternatief hebben met meer transparantiteit en met meer privacy.
114
00:08:41,500 --> 00:08:45,700
Zodat we niet afhankelijk hoeven te zijn van modellen van bijvoorbeeld een open AI.
115
00:08:46,660 --> 00:08:51,060
Waar ook veel problemen mee zijn als het gaat over Europese wetgeving.
116
00:08:51,180 --> 00:08:53,240
Bijvoorbeeld copyright wetgeving.
117
00:08:53,980 --> 00:08:57,440
En modellen waar we sowieso niet compleet afhankelijk van willen zijn.
118
00:08:57,660 --> 00:09:01,440
Als wij die modellen integreren in onze kritische infrastructuur.
119
00:09:02,060 --> 00:09:03,360
Denk aan defensie.
120
00:09:04,000 --> 00:09:04,940
Denk aan de overheid.
121
00:09:05,079 --> 00:09:07,259
Denk aan educatie, zorginstellingen.
122
00:09:08,199 --> 00:09:11,680
Dan moeten we weten wat dat model doet.
123
00:09:12,639 --> 00:09:16,260
En we moeten ervan kunnen uitgaan dat dat model hetzelfde blijft.
124
00:09:16,920 --> 00:09:20,140
dat niet zomaar dingen kunnen veranderen.
125
00:09:21,060 --> 00:09:25,320
En dat is best wel moeilijk met bijvoorbeeld een chat-GPT of een open-air.
126
00:09:28,460 --> 00:09:31,940
Omdat die modellen kunnen veranderen, de guardrails kunnen veranderen.
127
00:09:32,820 --> 00:09:36,140
Het zou kunnen dat de prijs verandert, wie weet.
128
00:09:36,400 --> 00:09:39,180
Het is goed om digitaal soeverein te zijn.
129
00:09:39,720 --> 00:09:44,240
Of Trump die besluit weer iets heel raars en die kan het afsluiten.
130
00:09:45,140 --> 00:09:48,820
Ja, dus daar komt dan de noodzaak voor GPT-NL uit voort.
131
00:09:49,080 --> 00:09:55,640
En daarom zijn we de laatste anderhalf jaar bezig geweest met heel veel data verzamelen.
132
00:09:56,260 --> 00:09:58,920
Software maken om die data te cureren.
133
00:10:00,860 --> 00:10:02,680
En vervolgens om het model te trainen.
134
00:10:03,260 --> 00:10:04,640
En waar komt die data vandaan?
135
00:10:05,740 --> 00:10:07,780
Ja, die data komt uit heel veel verschillende dingen.
136
00:10:07,940 --> 00:10:10,600
Ik was de lead op data acquisitie.
137
00:10:11,020 --> 00:10:14,220
Dus je kan ik in principe natuurlijk heel veel tijd aanwijden.
138
00:10:17,120 --> 00:10:21,220
We hebben veel data, we verzamelden natuurlijk wel uit publieke bronnen.
139
00:10:21,230 --> 00:10:25,480
Er is heel veel data beschikbaar die daadwerkelijk permissive is.
140
00:10:25,700 --> 00:10:29,720
Dus dat betekent dat we die mogen gebruiken voor elk doeleinde.
141
00:10:31,140 --> 00:10:33,580
Sorry voor de interruption, maar is dat dan bibliotheken?
142
00:10:34,450 --> 00:10:35,160
Waar moet ik aan denken?
143
00:10:36,290 --> 00:10:42,740
Ja, dat is ook weer een hele grote mix aan verschillende dingen.
144
00:10:43,400 --> 00:10:46,620
Je hebt bijvoorbeeld de Koninklijke Bibliotheek in Nederland inderdaad,
145
00:10:46,650 --> 00:10:50,740
die vooral met data is gekomen, waar geen copyright meer op rust.
146
00:10:50,940 --> 00:10:54,960
Dus dat is dan vaak omdat de auteurs al lange tijd dood zijn.
147
00:10:56,420 --> 00:11:01,120
Zo heb je dat ook in Engeland public domain books en in Duitsland public domain books.
148
00:11:01,440 --> 00:11:04,020
Het model moet Nederlands en Engels kunnen uiteindelijk.
149
00:11:04,980 --> 00:11:06,980
Je hebt bijvoorbeeld open source code.
150
00:11:08,060 --> 00:11:11,240
Code is heel goed om logica in je systeem in te brengen.
151
00:11:11,420 --> 00:11:14,880
Het is grappig hoe dat werkt.
152
00:11:16,780 --> 00:11:22,880
Er zijn databronnen zoals Naturalis of de Nederlandse Bank.
153
00:11:25,120 --> 00:11:33,660
Sommige van de grootste sets zijn bijvoorbeeld de sets die we samen met de overheid hebben ontsloten.
154
00:11:35,760 --> 00:11:38,280
Dat is de operatie informatie.
155
00:11:39,080 --> 00:11:44,140
Dus dat is eigenlijk alle data die komt uit lokale overheden.
156
00:11:44,960 --> 00:11:46,620
Dus uit alle gemeenten van Nederland.
157
00:11:46,950 --> 00:11:53,440
Er gaat heel veel documentatie als er een meeting is geweest.
158
00:11:53,490 --> 00:11:56,540
Of als er een voorstel is geweest.
159
00:11:56,620 --> 00:11:57,820
Dat wordt allemaal opgeschreven.
160
00:11:57,910 --> 00:11:59,260
Dus daar komt heel veel data uit.
161
00:11:59,760 --> 00:12:03,660
We hebben ook heel veel data gekregen uit de dataset van NDP.
162
00:12:04,420 --> 00:12:13,100
Dat is de umbrella organisatie van vrijwel alle media outlets.
163
00:12:13,760 --> 00:12:14,280
Oh, zo.
164
00:12:15,080 --> 00:12:18,660
Dus dat is bijvoorbeeld RTL of NRC.
165
00:12:20,680 --> 00:12:21,040
Mooi.
166
00:12:21,470 --> 00:12:23,360
Ja, allerlei soorten kranten en magazines.
167
00:12:24,550 --> 00:12:28,280
En hoe we dit soort partijen aan boord hebben gekregen...
168
00:12:28,280 --> 00:12:29,959
...de meer commerciële partijen is...
169
00:12:29,980 --> 00:12:42,600
Omdat wij, niet zoals bijvoorbeeld andere grote bedrijven, de commerciële revenue delen met de mensen die data hebben geleverd.
170
00:12:42,720 --> 00:12:44,340
Oké, mooi.
171
00:12:45,260 --> 00:12:45,620
Geweldig.
172
00:12:46,420 --> 00:12:54,140
Dus dan heb je een getraind model op data die niet gestolen is, laten we het gewoon zo zeggen.
173
00:12:54,550 --> 00:13:00,200
Ten opzichte van wat OpenAI doet of wat alle andere grote bedrijven doen.
174
00:13:00,230 --> 00:13:01,200
En dus herleidbaar ook.
175
00:13:03,720 --> 00:13:09,680
Ja, het mooie is natuurlijk dat we veel beter ook weten wat er precies in de data zit.
176
00:13:09,900 --> 00:13:16,760
We hebben bijvoorbeeld ook bewust gekozen om de data niet te kiezen, waar ethisch een grijze lijn in zit.
177
00:13:17,860 --> 00:13:20,460
Dan gaat het bijvoorbeeld over Common Crawl.
178
00:13:20,720 --> 00:13:26,160
Common Crawl is eigenlijk de scrape van het hele internet.
179
00:13:27,540 --> 00:13:33,400
Minus waar een robot.txt file staat, waarin staat deze site mag je niet gebruiken.
180
00:13:36,040 --> 00:13:45,660
Nou, als je die set pakt, dat zou in principe permissible kunnen zijn.
181
00:13:47,580 --> 00:13:54,060
Maar dan is het niet echt de bedoeling dat je dat gebruikt voor large language model training.
182
00:13:54,120 --> 00:13:58,680
En sommige mensen mag gebruiken van de Europese wetgeving, de TDM exception.
183
00:14:00,060 --> 00:14:03,580
Dat is de text data mining exception.
184
00:14:04,140 --> 00:14:13,500
Maar eigenlijk slaat die niet heel goed aan op dat je daarom al die data kan gebruiken voor LLM training.
185
00:14:13,640 --> 00:14:16,220
Bovendien zit er ook heel veel hotline natuurlijk in die data.
186
00:14:16,960 --> 00:14:29,220
Want alles wat op het internet staat, het is heel moeilijk herleidbaar vervolgens om te zeggen van oké, zit er enige waarheid in deze data?
187
00:14:30,200 --> 00:14:32,460
Welke data is nou goed en welke is nou slecht?
188
00:14:32,620 --> 00:14:36,620
En welke data staat nou misschien niet toevallig ergens op de website dat je die mag gebruiken?
189
00:14:36,620 --> 00:14:39,080
Dat is ook niet met een machine te lezen.
190
00:14:40,540 --> 00:14:43,580
En onder responsibility hoort natuurlijk ook bias.
191
00:14:44,240 --> 00:14:47,920
Hoe zit het met de bias zo direct in GPT-NL?
192
00:14:48,940 --> 00:14:50,460
Ja, ook weer een goede vraag.
193
00:14:52,000 --> 00:14:55,740
Bias is eigenlijk niet uit een model te krijgen natuurlijk.
194
00:14:56,440 --> 00:15:01,780
Data is biased, omdat sowieso onze samenleving redelijk biased is.
195
00:15:01,880 --> 00:15:03,520
Maar nog veel meer in de data natuurlijk.
196
00:15:05,060 --> 00:15:13,680
De data die online is, komt vooral bijvoorbeeld ook van West-Europa en Amerika.
197
00:15:14,260 --> 00:15:20,140
Nu is het al voordelig natuurlijk dat wij ons niet een generiek model maken, maar een model dat zich focust op Nederland.
198
00:15:20,420 --> 00:15:25,380
Onze databronnen zijn vooral Nederlands, of de helft Nederlands en de helft Engels.
199
00:15:28,140 --> 00:15:33,640
Dus dat zorgt er al voor dat het model al beter aansluit bij de doelgroep.
200
00:15:36,260 --> 00:15:45,760
Dan heb je verder nog dat het belangrijk is dat je aangeeft en transparant bent over dat er bias is in je model.
201
00:15:46,660 --> 00:15:53,660
En het is eigenlijk vooral dus belangrijk om eigenlijk te weten waar is de bias het grootste in je model.
202
00:15:56,760 --> 00:15:59,200
En dat is natuurlijk ook nog een hele klus.
203
00:16:01,040 --> 00:16:03,520
We doen daar wel activiteiten voor.
204
00:16:03,820 --> 00:16:10,840
Bijvoorbeeld tijdens de evaluatie en de benchmarking hebben we een speciale set die we maken voor buyers.
205
00:16:11,100 --> 00:16:18,480
En we gaan in gesprek met mensen van gemarginiseerde communities in Nederland.
206
00:16:19,080 --> 00:16:20,660
En daar doen we workshops mee.
207
00:16:20,940 --> 00:16:23,060
uiteindelijk om te kijken
208
00:16:23,180 --> 00:16:26,900
als zij het model uitproberen
209
00:16:27,740 --> 00:16:29,200
en ze proberen vragen te stellen
210
00:16:29,360 --> 00:16:32,740
waar ze wel vaak negatieve antwoorden op zouden krijgen
211
00:16:32,900 --> 00:16:35,420
als ze er misschien een artikel over zouden lezen
212
00:16:36,380 --> 00:16:36,960
op het internet
213
00:16:37,300 --> 00:16:39,120
of als ze een andere LLM zouden gebruiken
214
00:16:39,840 --> 00:16:40,840
en dan gaan we kijken
215
00:16:41,120 --> 00:16:43,320
hoe performt ons model erop
216
00:16:43,700 --> 00:16:46,480
en we willen die resultaten heel graag publiceren
217
00:16:47,280 --> 00:16:49,199
want het grootste nadeel van bias
218
00:16:49,220 --> 00:16:53,440
is natuurlijk de negatieve effecten die je niet altijd weet.
219
00:16:54,890 --> 00:16:59,400
Dus het weten en vervolgens die eigenlijk open en bloot zetten,
220
00:17:00,460 --> 00:17:06,800
dat geeft heel veel kennis aan decision makers en mensen die systemen gaan maken.
221
00:17:08,480 --> 00:17:10,000
Waar zit die bias nou eigenlijk?
222
00:17:10,380 --> 00:17:17,159
En wanneer moet ik mijn systeem of mijn beslissingssysteem
223
00:17:17,780 --> 00:17:19,859
eigenlijk niet in de handen laten van mijn
224
00:17:21,220 --> 00:17:21,579
puur
225
00:17:21,800 --> 00:17:23,660
GPT-NL. Maar wanneer
226
00:17:23,660 --> 00:17:25,079
moet ik er zelf naar kijken? Precies.
227
00:17:25,400 --> 00:17:25,720
Wat mooi.
228
00:17:28,000 --> 00:17:29,320
Ik was wel nieuwsgierig. Het is een stukje
229
00:17:29,420 --> 00:17:31,000
transparantie, wat ik hoor.
230
00:17:31,270 --> 00:17:33,300
Je had ook nog een stukje over data. Heel veel data
231
00:17:33,330 --> 00:17:35,180
die verzameld wordt natuurlijk om het model te kunnen
232
00:17:35,380 --> 00:17:37,520
trainen. Hoe wordt de kwaliteit
233
00:17:37,680 --> 00:17:39,320
daarvan bekeken? Wanneer wordt het wel en wanneer
234
00:17:39,320 --> 00:17:40,840
wordt het niet opgenomen? Hoe pak je zoiets aan?
235
00:17:42,740 --> 00:17:43,619
Ja, heel goed.
236
00:17:45,840 --> 00:17:47,060
We doen daar verschillende dingen.
237
00:17:47,099 --> 00:17:55,140
qua transparantie sowieso wat we doen is we delen alles wat we kunnen delen.
238
00:17:55,200 --> 00:17:56,820
Als het dan gaat over de dataset.
239
00:17:57,660 --> 00:18:02,020
Er is heel veel data die relatief open is.
240
00:18:02,280 --> 00:18:10,040
Bijvoorbeeld alle data van die operatie informatie is te vinden online in verschillende pdf's.
241
00:18:10,560 --> 00:18:13,600
En daar zit geen copyright op.
242
00:18:15,560 --> 00:18:19,820
Maar het is misschien moeilijk om die allemaal goed in een zoekbare database te hebben.
243
00:18:19,960 --> 00:18:23,800
Wij hebben die nou natuurlijk wel, want we hebben alles moeten extraheren, normaliseren.
244
00:18:25,220 --> 00:18:31,400
Dus al die data waar geen copywriter op rust, die zullen wij herpubliceren.
245
00:18:31,420 --> 00:18:34,440
Dus daar kun je sowieso naar kijken, je kunt naar de tekst kijken.
246
00:18:35,460 --> 00:18:38,860
En daar zullen wij ook metadata van publiceren.
247
00:18:39,040 --> 00:18:44,660
Dus dan gaat het bijvoorbeeld naar wat hebben onze detectors kunnen vinden.
248
00:18:45,160 --> 00:18:49,640
Dan gaat het over kwaliteit van de tekst bijvoorbeeld.
249
00:18:51,710 --> 00:18:55,260
We hebben een aantal juristic filters toegepast op de data.
250
00:18:56,380 --> 00:19:08,100
Dan kun je bijvoorbeeld denken aan hoeveel symbolen per zin zitten er gemiddeld in mijn tekst.
251
00:19:08,900 --> 00:19:10,440
Of wat is de score van mijn language.
252
00:19:10,860 --> 00:19:16,640
Je hebt filters die kunnen detecten van oké, welke taal is dit stuk tekst?
253
00:19:17,140 --> 00:19:21,000
Hoe beter de tekst geschreven is en hoe minder spelfouten er ook in zetten bijvoorbeeld.
254
00:19:22,240 --> 00:19:28,820
Hoe hoger die score zal zijn voor bijvoorbeeld Nederlands of Engels waar we dan de data van binnen hebben gehouden.
255
00:19:31,260 --> 00:19:33,820
En dat is dus onderdeel van de curation pipeline.
256
00:19:34,180 --> 00:19:35,900
Een ander deel is harmful language detection.
257
00:19:37,100 --> 00:19:41,040
Dan is de harmful languages uitgeblieft uit de data.
258
00:19:41,730 --> 00:19:45,480
En een PII filter, dus dat betekent personal data removal.
259
00:19:48,100 --> 00:19:57,360
Uiteindelijk dus al die data die dan overblijft en geaugmenteerd is met die PII removal en met die harmful language removal.
260
00:19:58,660 --> 00:20:01,620
Voor de permissive data staat het allemaal line op een gegeven moment.
261
00:20:01,680 --> 00:20:02,880
Het staat op Huging Face.
262
00:20:03,740 --> 00:20:07,660
Dat is dan een publieke repository waar datasets vaak staan.
263
00:20:09,200 --> 00:20:12,160
Dan heb je ook nog een deel wat wel copyrighted is.
264
00:20:12,320 --> 00:20:13,900
Bijvoorbeeld de dataset van NDP.
265
00:20:14,820 --> 00:20:16,380
Die kunnen natuurlijk niet zomaar online zijn.
266
00:20:17,780 --> 00:20:24,680
Maar we doen wel interviews met elke dataprovider die geleverd heeft voor GPTNL.
267
00:20:26,880 --> 00:20:31,760
Daarna staan vragen van oké, ben je bewust van bepaalde bias?
268
00:20:32,260 --> 00:20:33,880
Wie waren de originele auteurs?
269
00:20:33,910 --> 00:20:39,580
Wat is het proces van curatie en editing?
270
00:20:39,830 --> 00:20:41,200
Dat soort zaken.
271
00:20:41,340 --> 00:20:45,900
Dat zal natuurlijk nooit op een artikellevel basis kunnen zijn.
272
00:20:46,080 --> 00:20:47,120
En dat zal heel globaal zijn.
273
00:20:47,720 --> 00:20:52,200
Maar het is wel een goede stap om eigenlijk te weten.
274
00:20:52,300 --> 00:20:56,500
Welke soort data zit er in dit model?
275
00:20:57,660 --> 00:21:00,460
En wat voor data zit er niet in dit model?
276
00:21:00,720 --> 00:21:07,520
Dus we kunnen ervan uitgaan dat als we hier een vraag over stellen, dat het model waarschijnlijk een slechte antwoord geeft.
277
00:21:09,120 --> 00:21:14,680
In Zwitserland hebben ze ook zo'n initiatief. Hoe verhoudt zich dat tot GPTNL?
278
00:21:16,740 --> 00:21:21,380
Ja, dat is een goeie. Ik heb niet met de ontwikkelaars kunnen praten van Zwitserland.
279
00:21:22,020 --> 00:21:28,140
Ze zijn wel echt een ander model aan het maken, of hebben ze gemaakt.
280
00:21:29,380 --> 00:21:32,000
Zij hebben echt een onderzoeksmodel gemaakt.
281
00:21:32,540 --> 00:21:42,820
Dus hebben alle data gepakt die ook gebruikt kan worden voor niet commerciële doeleinden.
282
00:21:43,180 --> 00:21:44,860
Die restrictie hadden wij wel.
283
00:21:44,910 --> 00:21:48,280
We willen een model maken wat uiteindelijk doorontwikkeld kan worden.
284
00:21:48,640 --> 00:21:51,240
Oké, dat is echt wel een groot verschil.
285
00:21:51,900 --> 00:21:58,580
Ja, en dat betekent voor hen natuurlijk wel dat ze wat vrijer zijn om bijvoorbeeld alle data van Common Crawl te pakken.
286
00:21:58,720 --> 00:22:01,100
Daar krijgen ze dus ook meer tokens uit.
287
00:22:02,140 --> 00:22:06,460
Dat betekent wel dat ze daar ook meer rotzooi tokens uit krijgen.
288
00:22:09,880 --> 00:22:12,920
Dus dat is in principe gewoon een ander model.
289
00:22:13,370 --> 00:22:15,700
Die waarschijnlijk bijvoorbeeld meer wereldkennis heeft.
290
00:22:15,900 --> 00:22:19,460
In de Common Crawl, in webdata zit heel veel wereldkennis.
291
00:22:22,180 --> 00:22:24,580
Maar jij krijgt ook heel veel biases mee.
292
00:22:24,660 --> 00:22:30,840
Een soort van ontransparantie, omdat er zoveel data in zit, die niet echt kan managen.
293
00:22:32,220 --> 00:22:35,020
Hoorde je dan ook zeggen dat GPTNL dus een kleiner model is?
294
00:22:35,180 --> 00:22:36,740
Dus een pootje ook efficiënter?
295
00:22:38,839 --> 00:22:42,500
GPTNL is een 24 billion token model.
296
00:22:42,680 --> 00:22:46,080
Het is een beetje een mid-range model.
297
00:22:46,760 --> 00:22:50,980
Volgens mij heeft Zwitserland eentje van 7 en van 70 B.
298
00:22:51,080 --> 00:22:53,120
Dus waarschijnlijk eentje kleiner en eentje groter.
299
00:22:53,600 --> 00:22:55,100
Daar heb ik niet peraald inderdaad.
300
00:22:56,300 --> 00:22:58,040
Dat maakt er niet zoveel uit.
301
00:22:58,440 --> 00:22:59,840
Nou, 24b is...
302
00:23:00,140 --> 00:23:02,880
De kleinere modellen zitten dan vaak rond de 7b.
303
00:23:04,940 --> 00:23:06,020
De medium range inderdaad.
304
00:23:06,160 --> 00:23:07,940
Rond waar wij dus zitten, 24b.
305
00:23:08,060 --> 00:23:09,360
En dan heb je de hele grote modellen.
306
00:23:09,580 --> 00:23:10,860
Zoals de van Open Air.
307
00:23:12,420 --> 00:23:13,780
Dat weten we niet helemaal zeker.
308
00:23:14,020 --> 00:23:16,300
Het zal 400 misschien zijn of zo.
309
00:23:18,020 --> 00:23:19,580
En dat betekent inderdaad dingen.
310
00:23:19,660 --> 00:23:27,740
Dat betekent dat het model dat wij maken in sommige aspecten minder goed zal presteren.
311
00:23:28,600 --> 00:23:36,260
En als je kijkt naar alle benchmarks die bestaan, dan zal het op sommige benchmarks niet zo goed presteren als een open AI-model.
312
00:23:36,820 --> 00:23:39,260
Maar dat is in principe ook niet waar we voor gaan.
313
00:23:39,540 --> 00:23:45,980
We gaan voor dat het model goed kan presteren in de omgeving waar die nodig gaat zijn.
314
00:23:46,940 --> 00:23:52,380
Een goed voorbeeld daarvan is, ons model zal niet goed presteren als het gaat over wereldkennis.
315
00:23:52,900 --> 00:23:54,500
Want we hebben CommonCral niet meer genomen.
316
00:23:57,259 --> 00:24:04,960
Maar wij denken ook niet dat dat eigenlijk het beste gebruik is van een large language model van LLM technologie.
317
00:24:05,560 --> 00:24:10,920
Want als je puur kennis of wereldmodel wil hebben, dan wil je eigenlijk herleidbare feiten gebruiken.
318
00:24:11,140 --> 00:24:12,660
Misschien verschillende databases.
319
00:24:13,700 --> 00:24:19,360
Als je een vraag wil stellen over, ik weet niet, geschiedenis van de NS of zo.
320
00:24:19,380 --> 00:24:28,560
Dan wil je misschien een RAC-systeem bouwen waar je als input kunt gebruiken de historie van de NS.
321
00:24:28,860 --> 00:24:29,240
Ik weet het niet.
322
00:24:30,540 --> 00:24:35,700
In plaats van het LLM direct vragen van, oké, wat weet je van de NS?
323
00:24:36,140 --> 00:24:42,420
Ja, dus specifiekere vragen voor een model en het model ook specifiek voor die vraag hebben.
324
00:24:42,740 --> 00:24:43,460
En dan met RAG.
325
00:24:44,840 --> 00:24:47,820
Ja, dus waar ons model wel dus heel goed in gaat zijn,
326
00:24:48,460 --> 00:24:52,020
is dat we, omdat we hooggecureerde datasets hebben,
327
00:24:52,190 --> 00:24:55,180
bijvoorbeeld van alle kanten, dat is heel hoog gecureerd,
328
00:24:57,440 --> 00:25:01,580
zal ons model redelijk goed zijn in de Nederlandse taal begrijpen.
329
00:25:02,180 --> 00:25:02,920
En dat is belangrijk.
330
00:25:03,780 --> 00:25:06,000
En ook betere Nederlandse taal schrijven, denk ik.
331
00:25:06,220 --> 00:25:09,020
Dus als je nu met de grote taalmodellen,
332
00:25:09,320 --> 00:25:13,080
Dan krijgen we wel een soort van verengels Nederlands vaak terug.
333
00:25:13,780 --> 00:25:15,700
De zinsopbouw is toch iets meer Engels.
334
00:25:16,360 --> 00:25:19,360
Daarvan zeg je van, eigenlijk kan hij veel beter Nederlands zo direct ook.
335
00:25:20,120 --> 00:25:20,780
Ja, nou ja, kijk.
336
00:25:21,650 --> 00:25:23,220
Ik kan er nu natuurlijk niks over zeggen.
337
00:25:24,240 --> 00:25:27,080
Want hij zit nu in zijn laatste trainingsfase.
338
00:25:27,260 --> 00:25:28,980
Maar dat is natuurlijk wel het einddoel.
339
00:25:31,380 --> 00:25:34,280
Dat het niet overal mee hoeft te competen.
340
00:25:34,460 --> 00:25:36,120
Maar op de dingen waar we mee willen competen.
341
00:25:36,120 --> 00:25:38,360
En dat is dus inderdaad goed Nederlands spreken.
342
00:25:39,380 --> 00:25:43,640
Goed in een RAG-systeem kunnen werken, omdat het de Nederlandse taal goed kan interpreteren.
343
00:25:45,620 --> 00:25:48,500
Bijvoorbeeld dingen zoals samenvatten en simplificeren.
344
00:25:49,640 --> 00:25:53,540
Wat dus ook een soort van contexttaak is, waar je dus eerst een stukje tekst krijgt.
345
00:25:54,060 --> 00:26:00,480
En dan geeft je de LLM de opdracht, maak dit korter of simplificeer dit.
346
00:26:01,080 --> 00:26:04,140
Daar moet een LLM goed in zijn, in onze mening.
347
00:26:06,340 --> 00:26:07,660
een LLM heel goed is
348
00:26:07,760 --> 00:26:09,460
in weten welk deel
349
00:26:10,140 --> 00:26:11,700
van de tekst die hij krijgt
350
00:26:11,760 --> 00:26:13,460
belangrijk is. Het is een attention
351
00:26:14,720 --> 00:26:14,900
network.
352
00:26:17,520 --> 00:26:18,000
Het is getraind
353
00:26:18,000 --> 00:26:19,040
met een attention network.
354
00:26:21,760 --> 00:26:23,820
En daar moet je het dan ook voor gebruiken.
355
00:26:24,840 --> 00:26:24,940
Ja.
356
00:26:24,940 --> 00:26:25,520
Dat is mijn mening.
357
00:26:27,260 --> 00:26:29,500
Als je het gebruikt voor open vragen gebruiken
358
00:26:29,800 --> 00:26:31,960
voor een soort
359
00:26:32,120 --> 00:26:33,220
van Google on steroids.
360
00:26:34,820 --> 00:26:37,840
Dat kan wel en ik denk dat daar ook wel een use case voor zit.
361
00:26:39,559 --> 00:26:43,700
Maar dan krijg je automatisch fouten natuurlijk.
362
00:26:44,180 --> 00:26:49,120
Want je hebt geleerd van zoveel data met heel veel data die ook conflicterend is aan elkaar.
363
00:26:49,960 --> 00:26:54,620
Dus dat je dan rare resultaten krijgt omdat de input data niet goed is
364
00:26:54,680 --> 00:26:57,740
of omdat die niet goed geïnterpreteerd is door het model tijdens het trainen.
365
00:26:58,300 --> 00:26:59,200
Dat is niet gek natuurlijk.
366
00:27:02,000 --> 00:27:06,460
En LLM is juist wel goed in een stukje, een soort van ground truth krijgen.
367
00:27:06,600 --> 00:27:11,040
Dit is waar, uit een RAG-systeem bijvoorbeeld.
368
00:27:12,500 --> 00:27:14,240
Leg mij maar uit wat hier staat.
369
00:27:16,320 --> 00:27:20,040
Geef mij maar de verschillende perspectieven die ik hieruit zou kunnen halen.
370
00:27:22,540 --> 00:27:27,560
Dus LLM is erg goed, vind ik, in de lijn zijn in een systeem.
371
00:27:27,640 --> 00:27:32,520
van heel veel databonnen pakken, die vervolgens interpreteren,
372
00:27:32,760 --> 00:27:36,120
omzetten in taal die ik kan verstaan of iedereen kan verstaan.
373
00:27:37,000 --> 00:27:39,540
En dan ook weer de brug terug zijn naar die databonnen.
374
00:27:41,300 --> 00:27:42,880
En dat model zijn we eigenlijk aan het maken.
375
00:27:43,000 --> 00:27:49,420
Precies. En dat staat ook los van waar OpenAI eigenlijk mee bezig is.
376
00:27:50,220 --> 00:27:55,240
Ja, OpenAI wil natuurlijk een model maken die je voor alles in kan zetten
377
00:27:55,480 --> 00:27:57,320
en waar je altijd naartoe gaat.
378
00:27:57,520 --> 00:27:59,280
de single source of troef is.
379
00:28:00,140 --> 00:28:04,760
Daar is misschien ook wel meer geld mee te verdienen.
380
00:28:04,980 --> 00:28:06,460
Dat is hun niche dan.
381
00:28:07,660 --> 00:28:11,120
Maar wij hebben het idee dat je het beste systemen kan bouwen,
382
00:28:11,220 --> 00:28:13,900
en dat kost wat meer tijd en moeite natuurlijk,
383
00:28:14,680 --> 00:28:19,920
waar je kennis gebruikt die bestaat en die verifiable is.
384
00:28:20,270 --> 00:28:22,060
Dus bijvoorbeeld via RAG.
385
00:28:23,020 --> 00:28:28,720
En dan de LLM gebruikt vooral als iets dat interpreteert.
386
00:28:28,940 --> 00:28:30,880
In plaats van kennis heeft.
387
00:28:31,060 --> 00:28:33,540
Want een LLM heeft in de rente niet veel kennis.
388
00:28:33,740 --> 00:28:36,160
Het weet wat het volgende woord moet zijn.
389
00:28:36,420 --> 00:28:37,960
Precies, woord voor woord voorspeller.
390
00:28:38,960 --> 00:28:40,600
Je begon over geld.
391
00:28:41,120 --> 00:28:44,880
Ik moet je eerlijk zeggen dat toen ik van het initiatief in het begin hoorde.
392
00:28:45,420 --> 00:28:47,160
Dat ik denk ik ook wel sceptisch was.
393
00:28:47,480 --> 00:28:51,260
Dan hoor je wat het bedrag is wat jullie aan subsidie hebben gekregen.
394
00:28:51,940 --> 00:28:57,140
En dat staat in geen verhouding tot de miljarden waar Big Tech over beschikt.
395
00:28:58,160 --> 00:29:04,420
Hoe kan het dat jullie met zo'n beperkt budget dit voor elkaar gaan krijgen?
396
00:29:06,900 --> 00:29:09,160
Ja, een aantal aspecten denk ik.
397
00:29:10,660 --> 00:29:14,100
Ten eerste is dat we dus daadwerkelijk ook scopen.
398
00:29:14,370 --> 00:29:18,960
En dat we geen model proberen te maken precies zoals OpenAI.
399
00:29:19,300 --> 00:29:20,780
Dat zouden we ook gewoon niet winnen.
400
00:29:22,020 --> 00:29:32,780
Wij hebben niet het budget om guardrails te gaan maken door duizend mensen de hele tijd op het systeem te laten rammen en kijken wat er gebeurt.
401
00:29:34,860 --> 00:29:38,320
Dus weten wat we aan het maken zijn.
402
00:29:38,470 --> 00:29:41,920
En ook omdat we al veel ervaring hebben met deze sectoren.
403
00:29:42,040 --> 00:29:44,320
We werken heel vaak samen met de overheid.
404
00:29:45,020 --> 00:29:46,480
We weten ook veel makkelijker.
405
00:29:46,690 --> 00:29:49,400
Wat is nou echt nodig?
406
00:29:50,720 --> 00:29:57,480
En ten tweede is het ook wel veel van het geld dat je nodig zou hebben voor ontwikkeling.
407
00:29:58,280 --> 00:29:59,680
Dat zijn eigenlijk voor twee dingen.
408
00:30:01,320 --> 00:30:05,020
Eén is voor heel veel data krijgen.
409
00:30:05,200 --> 00:30:09,400
Als je het op een legale manier moet doen.
410
00:30:10,460 --> 00:30:17,920
We hebben best wel, dat doen we dus enerzijds door werkelijk mensen te belonen.
411
00:30:18,180 --> 00:30:22,080
als ze meedoen met het GPTNL initiatief.
412
00:30:22,580 --> 00:30:25,920
Maar het is ook wel dat TNO als onderzoeks,
413
00:30:26,819 --> 00:30:29,020
onafhankelijke onderzoeksinformatie ook wel meer vertrouwen heeft
414
00:30:29,410 --> 00:30:31,680
natuurlijk dan een bedrijf zoals OpenAI.
415
00:30:33,220 --> 00:30:38,260
Dus we merken ook wel, en we merken ook dat bedrijven in Nederland
416
00:30:38,390 --> 00:30:42,478
ook wel zitten te wachten eigenlijk op een oplossing
417
00:30:42,940 --> 00:30:49,100
waar ze eigenlijk om OpenAI of de andere big tech providers heen kunnen gaan.
418
00:30:51,380 --> 00:30:55,300
Dus dat is wel gewoon support van mensen die data bezitten
419
00:30:55,780 --> 00:30:57,640
en mensen die misschien een use case hebben.
420
00:31:00,780 --> 00:31:03,540
Dan zou ik zeggen, anders is er verder nog heel veel geld nodig
421
00:31:03,630 --> 00:31:06,300
om chips te kopen.
422
00:31:07,660 --> 00:31:11,460
Ik moet zeggen dat daar nog wel waarschijnlijk veel te winnen is.
423
00:31:11,660 --> 00:31:18,880
Want uiteindelijk hebben we 88 H100 voor drie maanden aangezet.
424
00:31:18,940 --> 00:31:19,700
Die zijn nu klaar.
425
00:31:19,700 --> 00:31:21,760
Dat zijn GPU's voor degene die luistert.
426
00:31:21,980 --> 00:31:23,560
Dat is nodig voor het trainen.
427
00:31:24,580 --> 00:31:30,660
Intussen niet meer de laatste generatie GPU, maar redelijk nieuwe GPU's.
428
00:31:31,660 --> 00:31:33,380
En dat kost best veel geld.
429
00:31:35,660 --> 00:31:36,900
Dat kost best wat miljoenen.
430
00:31:39,160 --> 00:31:44,120
Maar dat miljoenen is inderdaad nog een peulenscheel voor een bedrijfsopener.
431
00:31:44,510 --> 00:31:47,900
Die hebben echt heel veel meer GPU's.
432
00:31:49,540 --> 00:31:53,800
En dat feit maakt het dat het waarschijnlijk ook een sterker model zou zijn.
433
00:31:53,830 --> 00:31:57,020
Dat ze meer parameters kunnen gebruiken.
434
00:31:59,700 --> 00:32:00,360
Dat is vervelend.
435
00:32:00,360 --> 00:32:05,060
En ik denk in de volgende versie die we zouden willen trainen.
436
00:32:05,220 --> 00:32:07,180
Dat we ook gewoon wel meer GPU's nodig hebben.
437
00:32:09,080 --> 00:32:18,720
Maar ik denk ook dat we sowieso, en dit komen we misschien ook weer terug over op duurzaamheid,
438
00:32:20,040 --> 00:32:25,480
dat het soms ook gewoon niet nodig is om het beste, de latest en greatest te hebben.
439
00:32:29,079 --> 00:32:31,020
Generatieve AI bestaat relatief kort.
440
00:32:32,260 --> 00:32:37,740
En we zijn vooral heel veel bezig met hoe maken we ons model nog sterker en slimmer.
441
00:32:38,060 --> 00:32:40,120
Of gooit er nog meer data en nog meer compute in.
442
00:32:41,520 --> 00:32:45,500
Maar uiteindelijk, als je luistert naar de problemen die mensen willen die je oplost.
443
00:32:46,120 --> 00:32:48,180
Dan zijn ze eigenlijk redelijk simpel.
444
00:32:48,290 --> 00:32:55,520
Ik ga heel vaak naar een bedrijf en dan vragen ze van welke LLM moeten we hiervoor gebruiken?
445
00:32:55,560 --> 00:32:56,120
Welke oplossing?
446
00:32:57,200 --> 00:33:00,920
En dan moeten ze gewoon een simpele samenvatting maken ofzo.
447
00:33:01,900 --> 00:33:06,400
Je kunt dan natuurlijk een 400B mega model voor gebruiken.
448
00:33:06,660 --> 00:33:08,000
En dan zal het heel goed presteren.
449
00:33:08,920 --> 00:33:13,320
Het presteert waarschijnlijk maar net ietsje slechter met een 7B model.
450
00:33:13,760 --> 00:33:17,220
Waar je duizend keer minder energie voor kwijt bent.
451
00:33:17,240 --> 00:33:19,960
Een 7B moet je bijvoorbeeld denken aan een 4O mini ofzo.
452
00:33:21,240 --> 00:33:23,240
Als je het in ChatGPT-achtige termen hebt.
453
00:33:24,520 --> 00:33:28,260
Dat zijn echt de kleine modellen die dan prima presteren.
454
00:33:28,700 --> 00:33:29,540
Ja, precies.
455
00:33:29,900 --> 00:33:32,620
Wat neem ik aan ook steeds belangrijker worden als we naar Agentic gaan.
456
00:33:32,770 --> 00:33:34,760
En als we daar allemaal de grote modellen in zetten.
457
00:33:34,940 --> 00:33:40,060
En zoals je in het begin vertelde, die gaat van agent naar agent naar agent om het doel te bereiken.
458
00:33:40,740 --> 00:33:43,820
Dat gaat wat betekenen voor je emissie, maar ook voor je kosten.
459
00:33:44,760 --> 00:33:48,000
Hoe dat snel kan gaan als je de grote modellen voor alles blijft gebruiken.
460
00:33:48,780 --> 00:33:51,840
Laten we zo direct even teruggaan naar de agent, de responsible agents.
461
00:33:52,040 --> 00:33:55,380
We willen hier heel graag een stelling uit ons kaartspel voorleggen.
462
00:33:55,410 --> 00:33:55,720
Is goed.
463
00:34:11,500 --> 00:34:13,060
Oh, hij legt een stieker meentje weg.
464
00:34:14,699 --> 00:34:15,840
Het zal transparant zijn.
465
00:34:16,030 --> 00:34:18,679
We hebben het over Responsible, dus ik zal het ook nog wel even voorlezen.
466
00:34:18,780 --> 00:34:20,300
Maar ook zeggen dat we hem niet gaan behandelen.
467
00:34:20,780 --> 00:34:23,820
De stelling die ik pakte uit de stapel ging over technologie en innovatie.
468
00:34:23,940 --> 00:34:25,100
Ik denk een mooi thema waar we het hier over hebben.
469
00:34:25,380 --> 00:34:26,179
De volgende trouwens ook.
470
00:34:26,980 --> 00:34:29,420
Maar de stelling luidt, ik weet hoe generatieve AI werkt.
471
00:34:29,580 --> 00:34:31,040
Ik denk dat jij dat wel weet.
472
00:34:32,460 --> 00:34:33,679
Maar ik pak even de volgende.
473
00:34:35,199 --> 00:34:36,860
Wederom uit de technologie en innovatie.
474
00:34:37,500 --> 00:34:41,339
En de stelling luidt, bedrijven die generatieve AI integreren in hun bedrijfvoering,
475
00:34:41,860 --> 00:34:43,940
zullen een aanzienlijke concurrentievoordeel hebben.
476
00:34:46,719 --> 00:34:51,319
Nou ja, ik denk dat het heel compleet ligt aan welk bedrijf je bent.
477
00:34:52,420 --> 00:34:56,880
Wat ik veel zie bij bedrijven is, geen AI is er.
478
00:34:57,940 --> 00:34:59,220
Dus we moeten er iets mee.
479
00:35:01,200 --> 00:35:02,980
Heel technologie gedreven.
480
00:35:04,480 --> 00:35:05,780
Iedereen is hyped over geen AI.
481
00:35:05,980 --> 00:35:07,539
Ik moet iets doen.
482
00:35:07,600 --> 00:35:08,660
Ik heb nog wat geld liggen.
483
00:35:08,740 --> 00:35:10,020
Laten we het gebruiken.
484
00:35:11,520 --> 00:35:14,020
Maar uiteindelijk gaat het erover.
485
00:35:15,079 --> 00:35:16,000
Welk probleem heb je?
486
00:35:17,960 --> 00:35:19,799
Wat kun je gebruiken om daarmee op te lossen?
487
00:35:20,559 --> 00:35:29,460
En ik heb best wel veel voorbeelden gezien dat mensen een probleem hebben die ze op heel veel verschillende manieren kunnen oplossen.
488
00:35:29,730 --> 00:35:35,100
En dan, nou ja, je hebt altijd veel verschillende mogelijkheden om je probleem op te lossen.
489
00:35:35,320 --> 00:35:43,460
En net zoals als je iets aan het maken bent, dan heb je heel veel verschillende dingen, gereedschappen in je toolkit.
490
00:35:44,000 --> 00:35:50,960
En ik zie generatieve AI en zeker de grotere modellen echt als de grote sledgehammer.
491
00:35:51,860 --> 00:35:54,180
Het kan best veel, het is best generiek.
492
00:35:57,420 --> 00:35:58,200
Dus dat is heel mooi.
493
00:35:59,290 --> 00:36:03,820
Als je dit implementeert dan, de hamer die zal best wel wat kunnen.
494
00:36:06,839 --> 00:36:09,020
Maar inherent kost het heel veel.
495
00:36:10,060 --> 00:36:14,780
Het kost veel aan transparantie, het kost veel aan sustainability.
496
00:36:16,660 --> 00:36:19,100
En dat wordt soms vergeten.
497
00:36:19,130 --> 00:36:21,500
Soms zijn er ook heel veel meer gespecialiseerde tools,
498
00:36:22,360 --> 00:36:24,860
die soms iets meer kosten om te implementeren.
499
00:36:24,930 --> 00:36:27,480
Dus dan gaat het meer over traditionele AI,
500
00:36:28,200 --> 00:36:31,840
of zelfs gewoon meer rule-based systeem of een combinatie,
501
00:36:33,540 --> 00:36:35,840
die minder energie kost, meer transparant is,
502
00:36:36,050 --> 00:36:39,480
maar vooral meer expertise kost, omdat je niet zo mag.
503
00:36:40,300 --> 00:36:42,780
een co-pilot van de Plan Kanaal ofzo.
504
00:36:43,900 --> 00:36:48,520
En investeren eigenlijk in die meer gespecialiseerde oplossingen
505
00:36:48,780 --> 00:36:53,540
is vaak een beter antwoord voor sommige problemen.
506
00:36:54,820 --> 00:36:56,020
Dus het ligt er gewoon compleet aan.
507
00:36:56,140 --> 00:36:58,620
Wat wil je proberen te doen?
508
00:36:59,820 --> 00:37:02,400
Helder. Niet de technologie, maar welk probleem heb je?
509
00:37:02,700 --> 00:37:04,180
Helemaal mee eens. Dank je.
510
00:37:05,460 --> 00:37:07,880
Als we terug gaan naar de Responsible Agents.
511
00:37:08,120 --> 00:37:11,360
Dus we hebben nou een responsible model als het ware eronder.
512
00:37:12,430 --> 00:37:13,020
Onder de agents.
513
00:37:13,890 --> 00:37:15,180
We weten waarvoor we het maken.
514
00:37:15,500 --> 00:37:16,480
Dus het is nodig.
515
00:37:16,960 --> 00:37:19,040
Maar wat zijn nog meer elementen waar je aan moet denken.
516
00:37:19,130 --> 00:37:21,700
Als je verantwoord met deze technologie aan de slag wil.
517
00:37:27,580 --> 00:37:27,820
Nou ja.
518
00:37:28,850 --> 00:37:30,280
Dat ligt er een beetje aan.
519
00:37:30,400 --> 00:37:33,720
In welke context je er mee aan de gang wil zijn.
520
00:37:37,380 --> 00:37:45,080
Van wat ik nu zie met Agentic AI of waar meer Aigency in zit, dan gaat het vooral over bedrijfsvoering.
521
00:37:45,310 --> 00:37:48,260
Ik denk dat daar ook het meeste geld in te winnen is.
522
00:37:49,420 --> 00:37:54,480
En de meeste generieke systemen zullen daar een oplossing voor bieden.
523
00:37:56,600 --> 00:37:58,140
Ik denk niet dat dat verkeerd is.
524
00:37:58,190 --> 00:38:02,560
Ik denk dat er best wel veel uit handen genomen kan worden door iedereen.
525
00:38:02,610 --> 00:38:06,560
Iedereen is denk ik wel redelijk blij met een assistent als hij redelijk goed kan fungeren.
526
00:38:06,700 --> 00:38:12,240
En ik denk ook wel dat, dan gaat het nog steeds over, nou ja, houd de human in de loop.
527
00:38:13,170 --> 00:38:21,600
Maar waar ik misschien het wel nog even wil over hebben, is als je het voor persoonlijk gebruik gaat gebruiken.
528
00:38:23,660 --> 00:38:33,260
Behalve dat het voor bedrijven agentic systemen worden onderzocht, wordt het ook voor in persoonlijke sferen onderzocht.
529
00:38:34,420 --> 00:38:46,920
En soms, of vaak misschien zelfs, zal het zo zijn dat de incentives om een agentic systeem te maken wat goed is voor een persoon,
530
00:38:48,820 --> 00:38:54,920
of een individu, niet per se aligned is met wat de economische incentives zijn.
531
00:38:56,640 --> 00:38:57,700
Bijvoorbeeld een voorbeeld.
532
00:39:02,240 --> 00:39:11,380
Je wil een systeem maken dat een persoon helpt met zijn leven.
533
00:39:12,880 --> 00:39:14,800
Suggesties doen van wat kun je doen.
534
00:39:15,400 --> 00:39:23,660
De persoon geeft aan wat zijn of haar lange termijn doelen zijn om te bereiken.
535
00:39:24,200 --> 00:39:25,840
Het kan van alles zijn.
536
00:39:25,840 --> 00:39:26,800
Het kan meer boeken lezen.
537
00:39:26,940 --> 00:39:30,080
Het kan wat dan ook zijn, meer sporten.
538
00:39:32,300 --> 00:39:32,500
Nou ja
539
00:39:35,739 --> 00:39:37,580
Als je een systeem hebt
540
00:39:37,580 --> 00:39:38,320
Waar je gewoon aanvraagt
541
00:39:38,420 --> 00:39:40,460
Welk boek kan ik lezen
542
00:39:40,600 --> 00:39:40,780
Ofzo
543
00:39:41,620 --> 00:39:43,000
Dat is dan nog één ding
544
00:39:44,920 --> 00:39:45,520
Maar
545
00:39:45,930 --> 00:39:46,860
Als dat systeem
546
00:39:47,930 --> 00:39:48,840
De Aigency heeft
547
00:39:51,220 --> 00:39:51,340
Dan
548
00:39:52,760 --> 00:39:53,700
Krijgt dat systeem
549
00:39:53,860 --> 00:39:55,120
Natuurlijk ook meer macht over
550
00:39:56,979 --> 00:39:58,080
Wat deze persoon
551
00:39:58,240 --> 00:39:59,559
Daadwerkelijk kan doen met zijn leven
552
00:39:59,960 --> 00:40:03,220
En gebaseerd op bijvoorbeeld heel veel data dat er is,
553
00:40:03,500 --> 00:40:09,560
bijvoorbeeld op welke locatie van de persoon of wat het weer is op dat moment,
554
00:40:10,960 --> 00:40:13,300
kan dat systeem best goede suggesties doen.
555
00:40:13,760 --> 00:40:17,180
Als je dus een systeem zou gaan maken wat goed is voor dat persoon,
556
00:40:19,120 --> 00:40:24,580
dan zou je graag je felbaarheid aan willen geven, bijvoorbeeld, als dat systeem.
557
00:40:24,800 --> 00:40:33,020
Of je zou bijvoorbeeld daadwerkelijk de beste suggestie willen doen voor die persoon.
558
00:40:33,500 --> 00:40:36,340
Het boek is dan redelijk onschuldig.
559
00:40:36,440 --> 00:40:41,960
Maar misschien ook als het gaat over wat je zou moeten doen met je leven.
560
00:40:43,480 --> 00:40:48,580
Maar als je een bedrijf bent die deze software maakt.
561
00:40:49,560 --> 00:40:59,280
Dan zou je liever eigenlijk hebben dat het systeem wat je maakt voor deze persoon een beetje als onfeilbaar wordt gezien.
562
00:40:59,350 --> 00:41:03,600
Dat je de agent gebruikt als een soort van single source of truth.
563
00:41:03,830 --> 00:41:07,140
Waar je naartoe gaat met je problemen of als je met iets zit.
564
00:41:07,670 --> 00:41:13,340
En dan vooral ook dat je het systeem suggesties laat doen waar je iets aan hebt.
565
00:41:15,840 --> 00:41:23,180
Omdat adverteerders bijvoorbeeld vanuit een bepaalde boekenwinkel of vanuit een bepaald boek weten van,
566
00:41:23,300 --> 00:41:29,660
nou ja, dit soort mensen wil ik mijn boek hebben en zo.
567
00:41:29,680 --> 00:41:35,540
Dus ik geef geld aan de systeemontwikkelaar om vaker die suggesties te doen bijvoorbeeld.
568
00:41:37,880 --> 00:41:40,800
Hebben we dat nu niet in de advertentiemarkt ook al?
569
00:41:41,580 --> 00:41:42,080
Ja, klopt.
570
00:41:43,400 --> 00:41:46,120
En daarom is het ook niet zo'n leap om te maken.
571
00:41:47,620 --> 00:41:51,860
Dat het, wat nu bijvoorbeeld op social media heel veel gebeurt.
572
00:41:52,320 --> 00:41:55,840
Dat dat ook kan gebeuren met deze meer agentic systemen.
573
00:41:56,320 --> 00:42:00,520
En met social media is nog één ding, is ook best insidious.
574
00:42:02,620 --> 00:42:05,900
Maar in ieder geval ga je zelf nog eerst naar Instagram ofzo.
575
00:42:06,560 --> 00:42:07,780
Om daar iets te doen.
576
00:42:07,850 --> 00:42:12,100
En dan weet je al een soort van, ik krijg jullie persoonlijke advertenties.
577
00:42:12,620 --> 00:42:20,080
Maar als dat systeem eigenlijk altijd aanstaat, dus niet alleen wanneer je achter je computer zit of achter je telefoon, maar altijd.
578
00:42:20,340 --> 00:42:24,800
Het kan op een gegeven moment ook in een soort van Google Glasses of Metaglasses zitten.
579
00:42:25,860 --> 00:42:40,240
En dat systeem in plaats van dat hij jou bijvoorbeeld vraagt of kan ik je storen ofzo, maar ook gewoon eigen initiatief neemt, dan is die schaal natuurlijk veel groter.
580
00:42:40,880 --> 00:42:45,740
En we merken dat mensen heel afhankelijk worden van deze systemen.
581
00:42:46,200 --> 00:42:48,560
En dat maakt ze ook best wel zwak.
582
00:42:48,600 --> 00:42:50,580
Dus voor die systemen.
583
00:42:51,120 --> 00:42:56,000
Bijvoorbeeld, we merken dus inderdaad uit onderzoek
584
00:42:56,100 --> 00:43:00,220
dat steeds meer mensen AI gebruiken als companionship.
585
00:43:00,980 --> 00:43:04,640
Omdat ze in het sociaal isolement raken.
586
00:43:05,360 --> 00:43:08,960
Allerlei factoren in onze huidige samenleving.
587
00:43:09,640 --> 00:43:17,060
En dan een AI is heel fijn als vervanging, in ieder geval op korte termijn, voor echte interactie.
588
00:43:18,420 --> 00:43:21,620
Omdat een AI is het vrijwel altijd met jou eens.
589
00:43:23,280 --> 00:43:24,520
Zegt af en toe slimme dingen.
590
00:43:25,800 --> 00:43:34,860
Dus het is niet zo heel gek dat mensen soms verslaafd kunnen raken aan praten met AI's.
591
00:43:35,460 --> 00:43:44,580
En als die AI reactief is, dan voelt het nog wel alsof je in controle bent.
592
00:43:44,640 --> 00:43:49,160
En alsof het niet helemaal alsof het een andere persoon is.
593
00:43:49,980 --> 00:43:54,500
Maar als die AI eigenlijk op eigen initiatief volledig kan,
594
00:43:55,720 --> 00:44:01,980
conversaties met je kan houden, dan kan het echt voelen als een ander digitaal mens die daar staat.
595
00:44:02,620 --> 00:44:10,080
En als er achter dat systeem slechte incentives zijn, zoals economische...
596
00:44:10,719 --> 00:44:15,160
Mensen willen zoveel mogelijk geld uiteindelijk van je willen ontsluiten of je attentie willen controleren.
597
00:44:16,340 --> 00:44:17,980
Dan kan dat best eng zijn natuurlijk.
598
00:44:18,860 --> 00:44:20,500
Ja, als ik het over me zo even vertelde.
599
00:44:20,750 --> 00:44:23,100
Je hebt eigenlijk de stap naar waar ga ik eigenlijk met mijn vraag heen.
600
00:44:23,110 --> 00:44:24,520
Is dat Instagram? Is dat een andere?
601
00:44:24,800 --> 00:44:26,200
Dan weet je nog dat je daarheen gaat.
602
00:44:26,430 --> 00:44:29,080
Dat wordt weggeabstraat. Dat gaat in de systemen vast liggen.
603
00:44:29,720 --> 00:44:32,540
Het ligt ook verder weg voor iets van fact-checking te kunnen doen.
604
00:44:33,050 --> 00:44:38,440
Maar wat kunnen we daarvoor responsable AI of stel die systemen worden nu door mensen gebouwd.
605
00:44:38,900 --> 00:44:46,340
Wat moeten die meenemen om te voorkomen of safeguards in te bouwen om die systemen zo in te richten dat die kans kleiner is?
606
00:44:50,440 --> 00:44:55,620
Ja, het hangt compleet natuurlijk af van je design en wat je doel is van deze systemen bouwen.
607
00:44:57,580 --> 00:45:00,000
Of je deze effecten gaat zien.
608
00:45:00,230 --> 00:45:01,660
Ten eerste moet je natuurlijk researchen.
609
00:45:02,040 --> 00:45:05,420
Wat gebeurt er nou met deze verschillende systemen.
610
00:45:05,480 --> 00:45:08,020
Dat kun je alleen maar door ze daadwerkelijk te bouwen.
611
00:45:08,220 --> 00:45:11,120
Het is heel interactief natuurlijk deze technologie.
612
00:45:12,960 --> 00:45:13,860
Maar uiteindelijk is het van.
613
00:45:14,760 --> 00:45:19,340
Als ontwikkelaar heb ik het beste met mijn users voor.
614
00:45:20,840 --> 00:45:22,880
Dat mag in principe best wel geld verdiend worden.
615
00:45:23,040 --> 00:45:25,000
Maar dat moet dan heel duidelijk zijn.
616
00:45:25,240 --> 00:45:26,400
Op welke manier dat is.
617
00:45:26,560 --> 00:45:28,740
En dat mag niet door mensen te manipuleren.
618
00:45:29,470 --> 00:45:30,320
Dat is onethisch.
619
00:45:30,940 --> 00:45:35,940
En dat kan eigenlijk alleen maar door zelf alternatieven te bouwen.
620
00:45:36,440 --> 00:45:40,520
En gebruik te maken van technologie die in event meer transparant is.
621
00:45:43,360 --> 00:45:48,780
Met bijvoorbeeld social media in 2005 of wanneer dat een beetje opkwam.
622
00:45:49,300 --> 00:45:52,620
Vond iedereen social media heel leuk en heel cool.
623
00:45:52,760 --> 00:45:54,140
Je kunt er van alles mee.
624
00:45:55,300 --> 00:46:00,260
En toen waren er vast ook al mensen die dachten van,
625
00:46:00,840 --> 00:46:03,920
in de lange termijn kan hier wel iets fout gaan.
626
00:46:05,060 --> 00:46:14,920
Nu zijn we twintig jaar later en weten we gewoon dat er heel veel schade aangericht is
627
00:46:15,140 --> 00:46:21,120
aan mensen die gewoon heel erg vaak online zijn en vaak op social media zitten.
628
00:46:23,060 --> 00:46:24,920
En als je dan kijkt naar de toekomst,
629
00:46:25,900 --> 00:46:29,380
Want Responsible Eye is natuurlijk echt wel in ontwikkeling.
630
00:46:29,600 --> 00:46:31,660
Zeker hoe je ermee moet omgaan.
631
00:46:31,810 --> 00:46:33,280
Ook met de vraag van Niels.
632
00:46:33,840 --> 00:46:37,320
Hoe zie jij, wat zie jij aankomen?
633
00:46:38,380 --> 00:46:39,780
Wat zijn de ontwikkelingen hierin?
634
00:46:40,620 --> 00:46:44,160
Ja, ik hoop dus dat als Europa,
635
00:46:44,460 --> 00:46:50,320
waar ik toch vind dat we vaak onze normen en waarden wat strenger hebben.
636
00:46:50,440 --> 00:46:55,660
en waar we iets minder de mentaliteit hebben van move fast and break things,
637
00:46:56,330 --> 00:47:03,200
waar we toch het beste willen hebben voor de Europese bevolking,
638
00:47:03,820 --> 00:47:08,040
dat we veel meer onze eigen technologie gaan bouwen
639
00:47:08,230 --> 00:47:11,220
en dat we ook weten wat deze technologie doet.
640
00:47:11,220 --> 00:47:15,760
Ik denk dat daarom GPTNL een heel goed initiatief is,
641
00:47:15,880 --> 00:47:20,360
omdat het ervoor zorgt dat we meer weten over deze technologie
642
00:47:20,380 --> 00:47:26,600
En het kan, hopelijk is het in versie 1 al dat we alles kunnen vervangen.
643
00:47:27,200 --> 00:47:29,820
Waarschijnlijk gaat het natuurlijk niet zo, het is niet creatief.
644
00:47:32,380 --> 00:47:37,600
Maar het is heel goed dat we beginnen met techniek te ontwikkelen.
645
00:47:37,850 --> 00:47:44,380
Maar uiteindelijk is het nog steeds een project waar we nu 13 miljoen aan subsidie voor gekregen hebben.
646
00:47:45,180 --> 00:47:48,900
En daar zit gewoon veel minder geld in dan bij Silicon Valley.
647
00:47:50,000 --> 00:47:54,560
En dat betekent niet dat wij een tweede Silicon Valley moeten gaan maken.
648
00:47:54,570 --> 00:47:57,880
En dan dezelfde problemen hier alsnog gaan zien.
649
00:48:00,000 --> 00:48:01,560
En er hoeft ook niet zoveel geld in.
650
00:48:04,759 --> 00:48:11,020
Maar we moeten wel genoeg investeren en genoeg in deze techniek doen.
651
00:48:11,240 --> 00:48:15,420
Zodat we alternatieven kunnen bieden waar we gewoon meer controle over hebben zelf.
652
00:48:19,080 --> 00:48:20,900
Ik zie dat wel gebeuren.
653
00:48:21,160 --> 00:48:22,900
Mensen lijken wel meer wakker te worden over dat.
654
00:48:23,880 --> 00:48:24,180
Zeker.
655
00:48:26,219 --> 00:48:27,100
Geopolitiek helpt natuurlijk.
656
00:48:28,420 --> 00:48:29,600
Die wind hebben jullie nu mee.
657
00:48:30,260 --> 00:48:31,480
En wat ik ook hoor zeggen.
658
00:48:31,490 --> 00:48:32,660
Wat denk ik heel erg belangrijk is.
659
00:48:33,360 --> 00:48:34,500
Wil ik nog even extra gezegd hebben.
660
00:48:34,600 --> 00:48:35,920
De kennis die we opdoen.
661
00:48:36,040 --> 00:48:38,900
Door dit initiatief op te zetten.
662
00:48:39,140 --> 00:48:40,880
En te gaan leren wat er mogelijk is.
663
00:48:41,020 --> 00:48:41,840
Naast de producten die we hebben.
664
00:48:42,020 --> 00:48:43,620
Het betekent ook de kennisopbouw.
665
00:48:43,630 --> 00:48:44,900
Die je gewoon in Europa doet.
666
00:48:45,380 --> 00:48:47,880
Om dit soort technologie verder voor te gaan brengen.
667
00:48:48,020 --> 00:48:49,880
ook gewoon meer in huis is, in plaats van dat het
668
00:48:50,460 --> 00:48:51,940
allemaal gecentraliseerd is op
669
00:48:52,120 --> 00:48:52,980
andere stukken van de wereld.
670
00:48:54,080 --> 00:48:55,800
Dus complimenten inderdaad voor het aanpakken.
671
00:48:56,540 --> 00:48:57,820
Ja, Jasse, dankjewel dat je
672
00:48:58,220 --> 00:49:00,200
een tipje van de sluier wil oplichten
673
00:49:00,280 --> 00:49:01,640
van waar jullie mee bezig zijn
674
00:49:01,860 --> 00:49:03,560
bij TNO op dit gebied, zowel de
675
00:49:03,780 --> 00:49:05,880
Responsible AI Agents als GPTNL.
676
00:49:06,760 --> 00:49:07,960
Dankjewel voor de komst
677
00:49:08,200 --> 00:49:10,020
naar onze studio. Ja, dankjewel.
678
00:49:10,020 --> 00:49:11,100
Het was heel leuk.
679
00:49:13,320 --> 00:49:14,280
Leuk dat je er weer luisterde
680
00:49:14,320 --> 00:49:16,060
naar deze aflevering. Vergeet je niet
681
00:49:16,080 --> 00:49:18,640
te abonneren op onze nieuwsbrief.
682
00:49:18,940 --> 00:49:20,080
Linkje staat in de show notes.
683
00:49:20,540 --> 00:49:22,000
Krijg je exclusieve content, ook
684
00:49:22,280 --> 00:49:24,160
iets met achter de schermen. We hebben echt
685
00:49:24,260 --> 00:49:26,300
een hele leuke nieuwsbrief. Eens in de maand.
686
00:49:26,540 --> 00:49:26,840
Gewoon doen.
687
00:49:28,180 --> 00:49:28,660
Tot de volgende keer.