
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E38 - Weer een nieuwe model versie: GPT-4.1 en nu?
In de nieuwste aflevering van AIToday Live staat de release van GPT 4.1 door OpenAI centraal. De podcast analyseert de introductie van drie nieuwe varianten: GPT 4.1, GPT 4.1 Mini en GPT 4.1 Nano, slechts drie maanden na GPT 4o.
De hosts bespreken de verwarring die ontstaat door de naamgeving en het grote aantal beschikbare modellen. Ze gaan in op de prijsstelling, waarbij GPT 4.1 ongeveer een derde goedkoper is dan zijn voorganger.
Een belangrijke verbetering in GPT 4.1 is de context-lengte van 1 miljoen tokens, wat nieuwe mogelijkheden biedt voor diverse toepassingen.
Onderwerpen
- Release van GPT 4.1 en verwarring door modelvarianten
- Prijsstelling en kosten van tokens
- Verbeteringen in context-lengte van GPT 4.1
- Valkuilen van lange context-lengte in AI-toepassingen
- Gebrek aan transparantie en behoefte aan voorspelbare update-cycli
- Podcast: AIToday Live podcast
- Website: Overzicht van OpenAI modellen
- Website: Vergelijkingstabel van OpenAI modellen
- Website: Overzicht van OpenAI model uitgefaseerde modellen
- Aflevering: S06E72 - 3 Promptingtechnieken die je productiviteit verhogen
- Aflevering: S06E84 - 15 Prompt Engineering Tips van de Makers van Claude Deel 1
- Aflevering: S06E97 - Hoe kies je het beste taalmodel voor jouw organisatie?
- Model: OpenAI GPT 4.1
- Model: OpenAI GPT 4.5
- Model: OpenAI GPT 4.1 Nano
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: OpenAI
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:06,360
Hoi, leuk dat je weer luistert naar een korte aflevering van AIToday Live.
2
00:00:06,360 --> 00:00:08,620
Ik ben Joop Snijder, CTO van Aigency.
3
00:00:08,620 --> 00:00:14,400
En vandaag deel ik graag mijn gedachten over de recente release van GPT 4.1.
4
00:00:14,400 --> 00:00:18,840
Normaal gesproken duik ik niet zo diep in actuele ontwikkelingen.
5
00:00:18,840 --> 00:00:23,120
Maar deze release is opmerkelijk genoeg om er vandaag bij stil te staan.
6
00:00:23,120 --> 00:00:26,000
Niet alleen omdat het nieuwe mogelijkheden biedt.
7
00:00:26,000 --> 00:00:32,420
Maar vooral omdat het wat mij betreft belangrijke problemen rondom de keuzes voor taalmodellen blootlegt.
8
00:00:32,420 --> 00:00:39,060
En eerlijk gezegd begin ik me een beetje te ergeren aan de release strategie die OpenAI hanteert.
9
00:00:39,060 --> 00:00:44,260
Voordat we erin duiken, voor de nieuwe luisteraars die ons net zijn gaan volgen.
10
00:00:44,260 --> 00:00:49,560
AIToday Live deelt praktische AI kennis en ervaringen via toegankelijke menselijke verhalen.
11
00:00:49,560 --> 00:00:53,500
We helpen iedereen die wil begrijpen hoe AI echt werkt in organisaties.
12
00:00:53,500 --> 00:00:56,100
Verteld door de mensen die er dagelijks mee werken.
13
00:00:56,100 --> 00:00:59,980
Nou laat ik beginnen met dat context en achtergrond.
14
00:00:59,980 --> 00:01:08,120
Op 14 april 2025 heeft OpenAI GPT 4.1 gelanceerd in drie varianten.
15
00:01:08,120 --> 00:01:17,000
Van groot naar klein zijn dat GPT 4.1, GPT 4.1 Mini en GPT 4.1 Nano.
16
00:01:17,660 --> 00:01:19,500
En voor wie de tel al is kwijt geraakt.
17
00:01:19,500 --> 00:01:25,220
GPT 4.5 was de opvolger van GPT 4.0.
18
00:01:25,220 --> 00:01:27,620
Niet te verwachten met GPT 4o.
19
00:01:27,620 --> 00:01:29,160
Die heeft eigenlijk helemaal niet bestaan.
20
00:01:29,160 --> 00:01:35,060
En binnenkort komt er ook nog een zogenaamd reasoning model o4.
21
00:01:35,060 --> 00:01:42,360
Naast de o1 modellen waarvan de 1, hou je vast, o1-mini-high heet.
22
00:01:42,360 --> 00:01:44,660
Nou wie het nog begrijpt mag het zeggen.
23
00:01:46,400 --> 00:01:50,420
De kracht van de GPT's adoptie zat juist in de eenvoud.
24
00:01:50,420 --> 00:01:54,540
En daar is OpenAI nu aardig van aan het wegdrijven wat mij betreft.
25
00:01:54,540 --> 00:02:01,540
En wat me vooral opvalt is dat het drie maanden geleden dat GPT 4.5 is geïntroduceerd.
26
00:02:01,540 --> 00:02:10,940
En dat zal het model zijn dat de kortste levensduur heeft gehad van alle taalmodellen die OpenAI heeft uitgebracht.
27
00:02:11,400 --> 00:02:14,180
Want dit model wordt namelijk alweer uitgefaseerd.
28
00:02:14,180 --> 00:02:21,360
OpenAI adviseert nu om GPT 4o te vervangen door GPT 4.1.
29
00:02:21,360 --> 00:02:25,580
Nou stel je voor dat je net bent overgestapt naar 4.5.
30
00:02:25,580 --> 00:02:26,420
Ja lekker dan.
31
00:02:26,420 --> 00:02:31,480
Dus als organisatie kun je simpelweg niet elke drie maanden je taalmodel wisselen.
32
00:02:31,480 --> 00:02:35,660
Maar goed, wat betekent deze release nu concreet?
33
00:02:35,660 --> 00:02:40,660
Laten we eens kijken naar de belangrijkste aspecten waarop deze release invloed heeft.
34
00:02:40,660 --> 00:02:43,660
Ten eerste de prijsstelling van tokens.
35
00:02:43,660 --> 00:02:49,120
Voor wie nieuw is bij deze podcast, tokens zijn de bouwstenen waarmee een taalmodel werkt.
36
00:02:49,600 --> 00:02:52,200
Elke letter, ieder woord wordt opgedeeld in tokens.
37
00:02:52,200 --> 00:02:53,920
En elke token kost geld.
38
00:02:53,920 --> 00:02:59,060
En ze vormen de variabele kosten voor op large language models gebaseerde toepassingen.
39
00:02:59,060 --> 00:03:05,780
ChatGPT 4.1 is ongeveer een derde goedkoper dan GPT 4o.
40
00:03:05,780 --> 00:03:07,620
Wat best wel interessant is.
41
00:03:08,400 --> 00:03:13,960
Maar tegelijkertijd, OpenAI die heeft nu 17 modelversies.
42
00:03:13,960 --> 00:03:17,320
Met allemaal verschillende prijzen voor input en output tokens.
43
00:03:17,320 --> 00:03:21,160
En om je een idee te geven wat het verschil is.
44
00:03:21,160 --> 00:03:25,600
De goedkoopste variant, de nieuwste GPT 4.1 Nano.
45
00:03:25,600 --> 00:03:26,540
Het kleinste model.
46
00:03:26,540 --> 00:03:30,240
Kost 10 dollar cent per miljoen tokens.
47
00:03:30,240 --> 00:03:38,240
Terwijl o1 Pro maar liefst 600 dollar per miljoen tokens qua output kost.
48
00:03:38,240 --> 00:03:46,160
Wat mij betreft is het alsof je in een koffiezaak staat waar de ene barista je 2 euro rekent voor een cappuccino.
49
00:03:46,160 --> 00:03:50,720
Een andere 25 euro voor een elite cappuccino.
50
00:03:50,720 --> 00:03:52,460
Die er identiek uitziet.
51
00:03:52,460 --> 00:03:55,580
En de derde 8 euro voor een cappuccino premium.
52
00:03:55,580 --> 00:04:01,520
Allemaal met vage beloftes over smaakverbetering die je pas proeft als je er oog voor hebt.
53
00:04:02,340 --> 00:04:09,320
Maar goed, naast de verwarrende prijsstructuur zijn er tenminste ook enkele objectief meetbare verbeteringen in deze nieuwe release.
54
00:04:09,320 --> 00:04:13,520
Namelijk de nieuwe context lengte.
55
00:04:13,520 --> 00:04:15,180
Die is echt wel indrukwekkend.
56
00:04:15,180 --> 00:04:16,240
1 miljoen tokens.
57
00:04:16,700 --> 00:04:28,480
Voor wie niet bekend is met het begrip de context lengte is simpelweg hoeveel tekst het model tegelijkertijd zou kunnen tussen aanhalingsstekens onthouden en verwerken in één gesprek.
58
00:04:28,480 --> 00:04:36,420
En de 1 miljoen tokens is echt een enorme sprong vergeleken met de 128.000 tokens van eerdere GPT-4 modellen.
59
00:04:37,180 --> 00:04:45,520
Om dat in perspectief te plaatsen, 1 miljoen tokens staat gelijk aan meer dan 8 kopieën van de volledige React codebase of een kleine roman.
60
00:04:45,520 --> 00:04:53,060
Heropene AI beweert dat GPT-4.1 betrouwbaar informatie kan verwerken over deze gehele context lengte.
61
00:04:53,060 --> 00:04:57,960
Ze hebben het model ook getraind om relevante tekst beter op te merken daarbinnen.
62
00:04:57,960 --> 00:05:02,800
En afleiders te negeren, zowel in lange als korte contexten.
63
00:05:03,100 --> 00:05:09,920
En dit is echt een belangrijke verbetering omdat tot nu toe modellen met zo'n lange context de details in het midden gewoon vergaten.
64
00:05:09,920 --> 00:05:18,300
En dit klinkt natuurlijk veelbelovend voor toepassingen in juridische contexten, programmeren, klantenservice en vele andere domeinen.
65
00:05:18,300 --> 00:05:21,820
Maar hier schuilt ook een valkuil.
66
00:05:21,820 --> 00:05:30,800
Namelijk als variabele kosten belangrijk zijn, en dat zijn ze toch voor de meeste bedrijven, kan een grote context lengte je vijand worden.
67
00:05:31,140 --> 00:05:36,920
En meer input betekent niet automatisch meer rendement, of dat nu in geld of productiviteit is.
68
00:05:36,920 --> 00:05:42,860
Dus bij het ontwerpen van LLM gebaseerde applicaties moet je hier rekening mee gaan houden.
69
00:05:42,860 --> 00:05:46,200
Ga je de context lengte, ga je die beperken.
70
00:05:46,200 --> 00:05:52,940
Stel je rate limits in, en dat zijn beperkingen op hoe vaker gebruiker het model mag aanroepen binnen een bepaalde tijd.
71
00:05:52,940 --> 00:05:57,020
Wat betekent dit voor je gebruikers en voor de gebruikers ervaring?
72
00:05:57,820 --> 00:06:04,460
Maar misschien wel het meest frustrerende aspect is het lastige overschakelen tussen modellen.
73
00:06:04,460 --> 00:06:10,320
Laat ik bijvoorbeeld onze situatie van de podcast eens schetsen.
74
00:06:10,320 --> 00:06:12,640
Omdat daar kan ik gewoon vrij over praten.
75
00:06:12,640 --> 00:06:18,520
Bij AIToday Live hebben we 27 prompts verdeeld over OpenAI en Cloud.
76
00:06:19,380 --> 00:06:33,740
Omdat we als AI podcast onze productie ook met veel AI uitvoeren, hebben we geluk, tussen aanhalingstekens, dat we de impact van veranderingen direct kunnen zien dankzij onze AI automatisering voor de podcast.
77
00:06:33,740 --> 00:06:35,980
En ik word daar niet vrolijk van.
78
00:06:36,760 --> 00:06:41,660
Een goede herhaalbare prompt maken voor een geautomatiseerd proces is monnikenwerk.
79
00:06:41,660 --> 00:06:45,600
En een nieuw taalmodel betekent dat je gewoon weer aan de slag moet.
80
00:06:45,600 --> 00:06:51,040
Het is alsof je net je keuken hebt ingericht voor een specifiek recept.
81
00:06:51,040 --> 00:06:56,820
En dan vertelt iemand dat je nu een ander fornuis moet kopen met net iets andere knoppen.
82
00:06:57,820 --> 00:07:00,680
Maar goed, laten we eens kijken naar het grotere plaatje.
83
00:07:00,680 --> 00:07:07,580
De gevolgen van deze frequente modelwisselingen zijn echt verstrekkend voor organisaties die AI implementeren.
84
00:07:07,580 --> 00:07:15,740
Stel je voor, je hebt net je promptbibliotheek opgezet, alles werkt naar behoren en dan moet je weer alles nalopen omdat er een nieuw model is.
85
00:07:15,740 --> 00:07:18,840
En een nieuw model is trouwens niet per se beter.
86
00:07:18,840 --> 00:07:23,560
De benchmarks geven dan aan waar ze zogenaamd beter in worden.
87
00:07:23,560 --> 00:07:31,280
Maar eerlijk gezegd, ik word niet heel warm van de benchmarks en wat ze uiteindelijk zeggen over de praktische toepassingen binnen je eigen organisatie.
88
00:07:31,280 --> 00:07:37,240
En daarbij komt ook, kijk bij onze klanten kunnen we niet zomaar van taalmodel veranderen.
89
00:07:37,240 --> 00:07:40,560
Ja, ze zien ons aankomen, dan verklaren ze toch op een gegeven moment voor gek iedere keer.
90
00:07:40,560 --> 00:07:47,120
Want stabiliteit en voorspelbaarheid zijn cruciaal binnen bedrijfsomgevingen.
91
00:07:47,120 --> 00:07:52,300
En bovendien maakt de overvloed aan keuzes het niet eenvoudiger.
92
00:07:53,120 --> 00:07:57,240
Stel je ontwikkelt een nieuwe applicatie of agent, welk model kies je dan?
93
00:07:57,240 --> 00:08:00,420
Kies je een reasoning model of niet?
94
00:08:00,420 --> 00:08:05,160
En dan nog alle varianten binnen een van deze categorieën.
95
00:08:05,160 --> 00:08:09,360
Die keuze is zelfs lastig in de gebruikersinterface van ChatGPT.
96
00:08:09,360 --> 00:08:15,580
Op het moment van deze opname is GPT 4.1 nog niet eens te kiezen in de user interface.
97
00:08:15,580 --> 00:08:19,120
Het is alleen te gebruiken via de API, zodat je er tegenaan kan programmeren.
98
00:08:20,120 --> 00:08:28,020
Nu we de praktische problemen hebben besproken, wil ik even stilstaan bij wat mij persoonlijk het meeste stoort.
99
00:08:28,020 --> 00:08:36,740
Want waar ik me echt aan erger in deze situatie, is het gebrek aan transparantie en de duidelijke release strategie van OpenAI.
100
00:08:36,800 --> 00:08:50,840
Dus als OpenAI en andere AI leveranciers klanten serieus willen nemen, moeten ze naar een voorspelbare update cyclus en duidelijke richtlijnen gaan geven voor wanneer modellen worden uitgefaseerd.
101
00:08:51,840 --> 00:08:58,580
Dit is niet zomaar een wens, het is een absolute noodzaak voor bedrijven die serieus met deze technologie aan de slag willen.
102
00:08:58,580 --> 00:09:01,740
Maar goed, genoeg geklaagd.
103
00:09:01,740 --> 00:09:04,600
Laten we weer even constructief zijn.
104
00:09:04,600 --> 00:09:09,420
Want wat kun je als organisatie of professional doen om hiermee om te gaan?
105
00:09:09,420 --> 00:09:14,540
Wat zou ik je adviseren als het gaat om het kiezen van zo'n model?
106
00:09:14,600 --> 00:09:25,240
Als je nu moet starten met een AR-implementatie, kies gewoon het goedkoopste model wat beschikbaar is en kijk of je daar correcte resultaten mee haalt.
107
00:09:25,240 --> 00:09:29,520
En zo niet, dan schaal je langzaam op naar duurdere modellen.
108
00:09:29,520 --> 00:09:36,140
Zorg wel dat je testen maakt als je een large language model integreert in je applicatie.
109
00:09:36,140 --> 00:09:44,000
En over testen gesproken, kijk als je meer wilt weten over hoe je goede tests voor prompts kunt schrijven,
110
00:09:44,260 --> 00:09:50,140
luister dan zeker even terug naar afleveringen 72 en 84 van ons zesde seizoen.
111
00:09:50,140 --> 00:09:58,080
Want daarin bespreken we verschillende prompttechnieken en hoe je kunt testen met onvolledige of onrealistische gebruikersinvoer.
112
00:09:58,080 --> 00:10:02,080
Heel nuttig als je met deze modelwisselingen te maken krijgt.
113
00:10:02,080 --> 00:10:09,940
En ook nog trouwens als je worstelt met de vraag welk model nu eigenlijk het beste past bij jouw situatie,
114
00:10:09,940 --> 00:10:13,340
dan raad ik je aflevering 97 van seizoen 6 aan.
115
00:10:13,920 --> 00:10:19,800
Daarom bespreken we uitgebreid alle criteria die je moet afwegen en waarom je niet zomaar
116
00:10:19,800 --> 00:10:22,140
achter elk nieuwe modelversie aan moet rennen.
117
00:10:22,140 --> 00:10:25,680
Precies eigenlijk wat we vandaag behandelen, maar dan wat dieper.
118
00:10:25,680 --> 00:10:31,420
Een andere is dus als je een model al gebruikt en je moet een keuze maken.
119
00:10:31,420 --> 00:10:37,420
Ja, zolang de huidige versie van je taalmodel werkt en je komt uit met die kosten,
120
00:10:37,680 --> 00:10:39,020
doe dan even niet.
121
00:10:39,020 --> 00:10:45,920
Hij houdt wel in de gaten wanneer je model uitgefaseerd gaat worden door de leverancier en migreer voor die datum.
122
00:10:45,920 --> 00:10:48,440
En kijk dan naar welk model een optie is.
123
00:10:48,440 --> 00:10:55,620
Nou, ook hier adviseer ik om testen te schrijven, zodat je bij je migratie snel de impact kunt bepalen van het gewijzigde model.
124
00:10:56,560 --> 00:11:03,020
Oh ja, en voor wie graag meer informatie wil in de show notes van deze aflevering deel ik drie handige links.
125
00:11:03,020 --> 00:11:07,900
Je vindt daar een overzicht van modellen die binnenkort worden uitgefaseerd door OpenAI.
126
00:11:08,760 --> 00:11:12,720
Met gedetailleerde informatie over de huidige modellen van OpenAI.
127
00:11:12,720 --> 00:11:19,740
En daarnaast nog een vergelijkingstabel waar je de verschillende modellen naast elkaar kunt zetten qua functies en prijzen.
128
00:11:19,740 --> 00:11:23,360
Echt de moeite waard om even te bekijken als je hiermee aan de slag gaat.
129
00:11:23,360 --> 00:11:26,820
Nou, laten we nu even alles samenbrengen.
130
00:11:26,820 --> 00:11:32,740
En kijken wat we kunnen leren van wat we vandaag gehoord hebben.
131
00:11:32,740 --> 00:11:37,240
Kijk, een duidelijke release strategie van modellen is belangrijk voor het gebruik op lange termijn.
132
00:11:37,440 --> 00:11:43,200
Lijkt me duidelijk, de tijd, geld en energie die gestoken wordt in het gebruik van deze modellen moeten rechtvaardiger zijn.
133
00:11:43,200 --> 00:11:47,600
We zitten in een spannende tijd waarin de mogelijkheden van AI snel groeien.
134
00:11:47,600 --> 00:11:54,320
Maar laten we niet vergeten dat implementatie in de echte wereld stabiliteit en voorspelbaarheid vereist.
135
00:11:54,320 --> 00:12:03,100
Als professional die dagelijks met deze technologieën werkt, hoop ik dat leveranciers van taalmodellen dit serieuzer gaan nemen.
136
00:12:04,160 --> 00:12:07,920
Nou, wat kun jij nu doen om jezelf te beschermen tegen deze constante veranderingen?
137
00:12:07,920 --> 00:12:11,820
Nou, maak een bewuste keuze voor welk model je gebruikt.
138
00:12:11,820 --> 00:12:14,320
Bouw testen in je applicatie.
139
00:12:14,320 --> 00:12:20,800
En houd de end of life data van de modellen die je gebruikt bij.
140
00:12:20,800 --> 00:12:22,820
Wat levert je dat op?
141
00:12:23,040 --> 00:12:27,260
Stabiliteit, voorspelbaarheid en zeker minder hoofdpijn bij nieuwe releases.
142
00:12:27,260 --> 00:12:29,840
Wat je het doet?
143
00:12:29,840 --> 00:12:31,780
Direct naar deze aflevering.
144
00:12:31,780 --> 00:12:36,580
Nou, inventariseer eens welke modellen je momenteel gebruikt en wanneer ze mogelijk uitgefaseerd worden.
145
00:12:36,580 --> 00:12:38,180
En maak een migratieplan.
146
00:12:38,180 --> 00:12:43,520
En bedenk altijd, AI is niet de oplossing voor elk probleem, maar onmisbaar waar het past.
147
00:12:45,600 --> 00:12:47,480
Dank je wel weer voor het luisteren.
148
00:12:47,480 --> 00:12:49,360
Vind je deze aflevering nou nuttig?
149
00:12:49,360 --> 00:12:52,260
Tip ons eens bij je collega, familie of vriend.
150
00:12:52,260 --> 00:12:54,020
Dat waarderen wij heel erg.
151
00:12:54,020 --> 00:12:55,140
Tot de volgende keer.
152
00:12:55,140 --> 00:13:02,060
[Muziek]
153
00:13:02,060 --> 00:13:03,060
[Muziek]