1
00:00:00,001 --> 00:00:07,360
In de aflevering 72 van dit seizoen hebben we het gehad over de prompttechniek Chain
2
00:00:07,360 --> 00:00:08,360
of Thought.
3
00:00:08,360 --> 00:00:09,840
En wat denk je?
4
00:00:09,840 --> 00:00:13,560
Komt o1-preview het nieuwe model van OpenAI uit?
5
00:00:13,560 --> 00:00:17,000
Een model dat hevig leunt op deze techniek.
6
00:00:17,000 --> 00:00:18,400
Is het baanbrekend?
7
00:00:18,400 --> 00:00:22,360
Zijn we op weg naar AGI, Artificial General Intelligence?
8
00:00:22,360 --> 00:00:25,040
Of moeten we onze verwachtingen temperen?
9
00:00:25,040 --> 00:00:27,520
Je hoort het in deze aflevering.
10
00:00:27,520 --> 00:00:33,240
Hoi, leuk dat je weer luistert naar een korte aflevering van AIToday Live, de Nederlandse
11
00:00:33,240 --> 00:00:34,480
podcast over AI.
12
00:00:34,480 --> 00:00:37,480
Mijn naam is Joop Snijder, CTO bij Aigency.
13
00:00:37,480 --> 00:00:42,360
Allereerst, o1 is eigenlijk niet o1, maar o1-preview.
14
00:00:42,360 --> 00:00:46,320
Het is dus nog niet de uiteindelijke versie die we gaan zien.
15
00:00:46,320 --> 00:00:51,560
En misschien ook nog belangrijker, het is geen ChatGPT 5.
16
00:00:51,560 --> 00:00:57,400
Die laat nog op zich wachten om redenen die wat mij betreft een eigen analyse verdienen,
17
00:00:57,400 --> 00:00:58,400
maar niet nu.
18
00:00:58,400 --> 00:01:01,720
Wat maakt O1 dan wel bijzonder?
19
00:01:01,720 --> 00:01:05,560
Er is een hele hoop gedoe over, misschien heb je dat al gezien op de socials.
20
00:01:05,560 --> 00:01:10,120
Behalve dat het weer een vreemde keuze voor een modelnaam is.
21
00:01:10,120 --> 00:01:17,520
Het antwoord ligt in de integratie van de Chain of Thought techniek in het model zelf.
22
00:01:17,520 --> 00:01:23,360
En dus hebben ze nu in het model zelf die techniek ingebracht.
23
00:01:23,360 --> 00:01:29,640
En deze techniek die we eerder bespraken, stelt AI in staat om stapsgewijs door problemen
24
00:01:29,640 --> 00:01:30,640
heen te ridderen.
25
00:01:30,640 --> 00:01:35,720
Zelf vind ik het minder spectaculair dat er nu woordraadsels opgelost kunnen worden,
26
00:01:35,720 --> 00:01:38,520
of dat het model correct letters kan tellen in woorden.
27
00:01:38,520 --> 00:01:45,120
Wat wel interessant is hoe het beter kan zijn met programmeren, datavalidatie en vooral
28
00:01:45,120 --> 00:01:47,560
taken die een vorm van planning vereisen.
29
00:01:47,560 --> 00:01:54,800
En voor plantaken is er vaak een soort van gedachtenketen nodig, die Chain of Thought.
30
00:01:54,800 --> 00:02:01,040
En het innovatieve aan O1 is dat deze, tussen aanhalingstekens, gedachtenketen nu is ingebakken
31
00:02:01,040 --> 00:02:02,040
in het model.
32
00:02:02,040 --> 00:02:06,600
En dus gebruikers hoeven niet langer zelf complexe prompts te schrijven om het model
33
00:02:06,600 --> 00:02:08,680
tot diepgaande analyse aan te zetten.
34
00:02:08,680 --> 00:02:13,320
Er is wel een keerzijde, en dat is dat we deze tussentijdse denkstappen dan ook niet
35
00:02:13,320 --> 00:02:16,320
meer zien wat ten koste gaat van de transparantie.
36
00:02:16,320 --> 00:02:23,320
Bij OpenAI schrijven ze zelf dat o1 een nieuwe serie aan AI-modellen is die speciaal zijn
37
00:02:23,320 --> 00:02:28,320
ontwikkeld om complexe problemen beter op te lossen door meer tijd te nemen voor hun
38
00:02:28,320 --> 00:02:29,320
redeneerproces.
39
00:02:29,320 --> 00:02:38,600
In tegenstelling tot eerdere modellen zoals GPT-4 is o1 ontworpen om diepgaander te denken
40
00:02:38,600 --> 00:02:40,720
voordat het antwoorden geeft.
41
00:02:40,720 --> 00:02:46,600
Dit maakt het bijzonder geschikt voor ingewikkelde taken in vakgebieden zoals wetenschap, wiskunde
42
00:02:46,600 --> 00:02:47,600
en programmeren.
43
00:02:47,600 --> 00:02:53,240
Deze model is in ogen getraind om zichzelf te verbeteren door fouten te herkennen en
44
00:02:53,240 --> 00:02:55,400
verschillende strategieën uit te proberen.
45
00:02:55,400 --> 00:03:01,600
Belangrijk om te beseffen, deze aanpak is niet voor elke taak een verbetering.
46
00:03:01,600 --> 00:03:10,360
Zelfs de CEO van OpenAI, Sam Altman, erkende dit in een tweet waarbij hij o1 heeft aangekondigd.
47
00:03:10,360 --> 00:03:17,000
De kracht lijkt vooral te liggen in het oplossen van complexe problemen en het genereren van
48
00:03:17,000 --> 00:03:18,000
code.
49
00:03:18,000 --> 00:03:26,040
Moeten we wel opletten, er is een cruciaal misverstand die we uit de weg moeten ruimen.
50
00:03:26,040 --> 00:03:31,520
Large language models zoals O1 denken of redeneren niet echt.
51
00:03:31,520 --> 00:03:37,000
Ondanks de terminologie die wordt gebruikt, zowel in de aankondiging van OpenAI als in
52
00:03:37,000 --> 00:03:44,240
een chatinterface, zijn ze ongelofelijk goed in het genereren van coherente tekst, maar
53
00:03:44,240 --> 00:03:47,760
begrijpen niets in de menselijke zin.
54
00:03:47,760 --> 00:03:53,800
Deze modellen blijven patronen herkennen in data en interpoleren die binnen een complexe
55
00:03:53,800 --> 00:03:54,800
ruimte.
56
00:03:54,800 --> 00:04:00,520
Ze missen fundamenteel begrip en zijn beperkt door hun trainingsdata.
57
00:04:00,520 --> 00:04:08,400
Dus ondanks dat o1 schrijft dat het 40 seconden heeft nagedacht, betekent het dat het 40 seconden
58
00:04:08,400 --> 00:04:10,600
heeft gerekend aan het antwoord.
59
00:04:10,600 --> 00:04:16,040
En heeft dus niets met ons menselijk brein te maken en al helemaal niets met Artificial
60
00:04:16,040 --> 00:04:17,040
General Intelligence.
61
00:04:17,040 --> 00:04:21,240
Het blijft natuurlijk verleidelijk om het menselijk denken te vergelijken met large
62
00:04:21,240 --> 00:04:27,160
language models, maar doet echt geen recht aan de unieke aard van onze menselijke cognitie.
63
00:04:27,160 --> 00:04:36,920
Wat betekent het model van O1 dan wel voor de toekomst van AI?
64
00:04:36,920 --> 00:04:45,200
Want ze kunnen op zich indrukwekkend presteren op specifieke gebieden.
65
00:04:45,200 --> 00:04:49,040
We hebben het gehad over programmeren, wetenschap, dat soort zaken.
66
00:04:49,040 --> 00:04:53,320
Maar we moeten wel voorzichtig zijn met het overschatten van hun capaciteiten.
67
00:04:53,320 --> 00:04:59,640
Ik denk zelf namelijk dat de echte vooruitgang, dus in de toekomst, waarschijnlijk niet zal
68
00:04:59,640 --> 00:05:07,880
komen van het eindeloos vergroten van modellen of weer nieuwe benaderingen, maar veel meer
69
00:05:07,880 --> 00:05:15,800
vanuit de innovatieve benadering die we zelf hebben om juist beperkingen te adresseren.
70
00:05:15,800 --> 00:05:21,560
De doorbraak in toepassingen zal niet liggen in de kracht van een model, maar in de kracht
71
00:05:21,560 --> 00:05:25,440
van onze verbeelding wat we met deze modellen kunnen maken.
72
00:05:25,440 --> 00:05:30,600
Het mooie is wel dat we juist meer keuze krijgen in type modellen.
73
00:05:30,600 --> 00:05:35,640
Onze gereedschapskist wordt groter en we kunnen steeds beter het gereedschap kiezen
74
00:05:35,640 --> 00:05:36,800
dat past bij de klus.
75
00:05:36,800 --> 00:05:42,200
Dus bij elke nieuwe AI-doorbraak is een kritische blik essentieel.
76
00:05:42,200 --> 00:05:45,920
Dus grondige, onafhankelijke evaluatie blijft noodzakelijk.
77
00:05:45,920 --> 00:05:52,040
We moeten waakzaam zijn voor overenthuosiaste claims en wat mij betreft ook meer vragen naar
78
00:05:52,040 --> 00:05:55,760
transparantie en reproduceerbaarheid van resultaten.
79
00:05:55,760 --> 00:06:02,760
Daarbij komt dat het gebruik van dit nieuwe model echt wel behoorlijk prijzig is.
80
00:06:02,760 --> 00:06:09,960
Hij is redelijk traag en met nog een heel erg laag limiet voor het gebruik wat je ermee
81
00:06:09,960 --> 00:06:10,960
kan doen.
82
00:06:10,960 --> 00:06:15,720
Dat maakt het best moeilijk om de verandering echt op waarde te schatten.
83
00:06:15,720 --> 00:06:21,480
Ik wil toch altijd wel even iets verder kijken dan alle demo's op internet.
84
00:06:21,480 --> 00:06:27,760
Dus wat mij betreft gaat het erom hoe we deze tools inzetten om menselijke capaciteiten
85
00:06:27,760 --> 00:06:29,520
te versterken en niet te vervangen.
86
00:06:29,520 --> 00:06:37,280
Laten we ons niet verblinden door beloftes van AGI, artificial general intelligence,
87
00:06:37,280 --> 00:06:42,440
maar juist focussen op het creëren van AI-systemen die complementair zijn aan menselijke intelligentie.
88
00:06:42,440 --> 00:06:47,760
Wil jij op de hoogte blijven van de nieuwste ontwikkelingen?
89
00:06:47,760 --> 00:06:51,840
Schrijf je dan eens in voor onze maandelijkse nieuwsbrief en krijg toegang tot exclusieve
90
00:06:51,840 --> 00:06:54,400
content en een blik achter de schermen van de podcast.
91
00:06:54,400 --> 00:06:57,480
Dankjewel voor het luisteren en tot de volgende aflevering!
92
00:06:57,480 --> 00:06:59,480
[Muziek]