AIToday Live

S05E54 - Foundational Models: het fundament om AI op te bouwen

Aigency by Info Support Season 5 Episode 54

Waarom Foundational Models de basis vormen van AI-ontwikkeling?

Foundational models, zoals ChatGPT en Google Bard, worden steeds populairder in de wereld van AI. Ze vormen de basis voor andere AI-modellen en kunnen op een breed scala aan taken worden toegepast.

Ontdek waarom deze modellen zo belangrijk zijn en hoe ze de ontwikkeling van nieuwe AI-toepassingen versnellen. 


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,600
De wereld is in de band van ChatGPT, Midjourney, Google Bard en noem maar op.

2
00:00:05,600 --> 00:00:11,400
Prompts worden gedeeld om nog betere resultaten te halen en tips en trucs zijn overal te vinden.

3
00:00:11,400 --> 00:00:16,400
Maar volgens mij wordt een hele belangrijke eigenschap van deze modellen over het hoofd gezien.

4
00:00:16,400 --> 00:00:20,000
En dat is dat deze modellen zogenaamde foundational models zijn.

5
00:00:20,000 --> 00:00:24,400
Dit is een aflevering van AIToday Live Shorts.

6
00:00:24,400 --> 00:00:27,400
De actualiteit over AI in 5 minuten.

7
00:00:27,400 --> 00:00:38,320
Ik zeg niet voor niets de actualiteit over AI, want OpenAI heeft de afgelopen dagen een

8
00:00:38,320 --> 00:00:40,840
vastlijst aan nieuwe functionaliteiten aangekondigd.

9
00:00:40,840 --> 00:00:48,680
Je kunt binnenkort plaatjes laten maken met ChatGPT en die kan zelfs letterlijk gaan praten

10
00:00:48,680 --> 00:00:53,840
en kan je uitleg gaan geven hoe je een klus klaart samen met tekst en beeld.

11
00:00:53,840 --> 00:01:00,400
Ik verwacht van zowel OpenAI als van de concurrentie nog veel meer in de aankomende maanden, omdat

12
00:01:00,400 --> 00:01:03,680
het voor ze steeds eenvoudiger wordt om functionaliteit toe te voegen.

13
00:01:03,680 --> 00:01:06,200
Ze kunnen doorbouwen op wat ze hebben.

14
00:01:06,200 --> 00:01:08,600
Ze hebben namelijk een foundational model gebouwd.

15
00:01:08,600 --> 00:01:13,280
En foundational models zijn de bouwstenen van moderne AI toepassingen.

16
00:01:13,280 --> 00:01:18,000
Deze modellen zijn getraind op enorme datasets en hebben geleerd om patronen te herkennen

17
00:01:18,000 --> 00:01:19,000
in deze data.

18
00:01:19,000 --> 00:01:24,680
Ze zijn zo ontworpen om op een breed scala aan taken toepasbaar te zijn en fungeren daarmee

19
00:01:24,680 --> 00:01:26,960
als de basis voor meer specifieke modellen.

20
00:01:26,960 --> 00:01:32,680
Het belangrijke eigenschap van foundational models is dat ze het mogelijk maken om met

21
00:01:32,680 --> 00:01:35,640
minder data juist nieuwe modellen te trainen.

22
00:01:35,640 --> 00:01:38,680
Het is als het bouwen van een huis om een stevig fundament.

23
00:01:38,680 --> 00:01:43,320
Het fundament zorgt ervoor dat het huis stabiel blijft ongeacht hoe groot of complex het huis

24
00:01:43,320 --> 00:01:44,320
ook is.

25
00:01:44,320 --> 00:01:49,760
Zo bieden foundational models een solide basis voor verdere ontwikkeling, waardoor het gemakkelijker

26
00:01:49,760 --> 00:01:55,320
wordt om nieuwe, meer specifieke modellen op jouw geënt te ontwerpen en te trainen.

27
00:01:55,320 --> 00:01:59,560
Een analogie die dit goed illustreert is die van de taal.

28
00:01:59,560 --> 00:02:05,080
Als we een nieuwe taal willen leren, beginnen we meestal met de basisprincipes zoals grammatica

29
00:02:05,080 --> 00:02:06,080
en de vocabulaire.

30
00:02:06,080 --> 00:02:12,200
Maar maten we meer leren en onze vaardigheidsniveau verbeterd, kunnen we ons richten op specifiekere

31
00:02:12,200 --> 00:02:16,160
aspecten van de taal zoals spreekvaardigheid, lezen, schrijven.

32
00:02:16,160 --> 00:02:19,640
Foundational models werken op een vergelijkbare manier.

33
00:02:19,640 --> 00:02:25,040
Deze modellen zijn voorgetraind op enorm hoeveelheden data die je fundament kunnen zijn waarop je

34
00:02:25,040 --> 00:02:26,040
door kan bouwen.

35
00:02:26,040 --> 00:02:27,840
Laat ik het concreet maken.

36
00:02:27,840 --> 00:02:30,960
Een veel gebruikt model in computer vision is ResNet.

37
00:02:30,960 --> 00:02:33,880
Dit model kan ontzettend veel verschillende objecten herkennen.

38
00:02:33,880 --> 00:02:38,040
Maar wanneer je zelf een product hebt ontwikkeld dat ResNet nog nooit gezien heeft, dan kan

39
00:02:38,040 --> 00:02:39,720
het model dit uiteraard niet herkennen.

40
00:02:39,720 --> 00:02:46,720
Omdat ResNet al zoveel geleerd heeft over het herkennen van vormen, texturen, kleuren,

41
00:02:46,720 --> 00:02:52,400
et cetera, heb je veel minder foto's van je eigen product nodig om deze erbij te trainen.

42
00:02:52,400 --> 00:02:56,360
Het model leert sneller nieuwe onbekende objecten te herkennen.

43
00:02:56,360 --> 00:02:59,680
Je hebt doorgebouwd op het fundament dat al gelegd is.

44
00:02:59,680 --> 00:03:06,960
Zo kun je taalmodellen als GPT-4 gebruiken om deze specifiek te maken naar jouw wensen.

45
00:03:06,960 --> 00:03:11,860
Omdat het structuur van taal begrijpt, patronen snapt, is het dus eenvoudiger om nieuwe kennis

46
00:03:11,860 --> 00:03:12,860
toe te voegen.

47
00:03:12,860 --> 00:03:17,620
Zo kun je kennis, informatie en gegevens uit je eigen organisatie gebruiken om GPT naar

48
00:03:17,620 --> 00:03:24,660
jouw wensen te boetseren en zodat het minder algemeen is dat als je het gewoon zo gebruikt,

49
00:03:24,660 --> 00:03:27,300
maar juist de context snapt van jouw organisatie.

50
00:03:27,300 --> 00:03:32,360
Ik kwam deze week nog het misverstand tegen dat je ontzettend veel data nodig hebt om

51
00:03:32,360 --> 00:03:33,900
foundational models bij te trainen.

52
00:03:33,900 --> 00:03:38,900
Uiteraard moeten de gegevens die je aanbiedt aan een foundational model van goede kwaliteit

53
00:03:38,900 --> 00:03:42,260
zijn en dat kan nog best wel een opgave zijn.

54
00:03:42,260 --> 00:03:47,900
Maar zodra je die hebt, die data, kun je als het ware een stevig huis gaan bouwen op het

55
00:03:47,900 --> 00:03:53,260
fundament dat voor je neergelegd is, wat natuurlijk enorme kracht is van deze modellen.

56
00:03:53,260 --> 00:03:57,860
Maar, zoals jullie waarschijnlijk weten als vaste luisteraar, hecht ik ook heel veel waarde

57
00:03:57,860 --> 00:04:01,260
aan de transparantie en uitlegbaarheid van AI-systemen.

58
00:04:01,260 --> 00:04:05,260
Op dat gebied schieten de foundational models echt nog wel te kort.

59
00:04:05,260 --> 00:04:07,860
Het zijn zogenaamde blackbox-modellen.

60
00:04:07,860 --> 00:04:12,460
Omdat deze modellen zo complex zijn en op enorme datasets getraind zijn,

61
00:04:12,460 --> 00:04:15,660
is het vaak moeilijk om uit te leggen hoe ze tot hun conclusies komen.

62
00:04:15,660 --> 00:04:18,260
Dit kan leiden tot vertrouwensproblemen,

63
00:04:18,260 --> 00:04:22,660
kan moeilijk maken om beslissingen te nemen op basis van de uitkomsten van deze modellen.

64
00:04:22,660 --> 00:04:26,260
Maar, ondanks deze uitdagingen,

65
00:04:26,260 --> 00:04:30,660
bieden foundational models veel potentieel voor AI-ontwikkeling en innovatie.

66
00:04:30,660 --> 00:04:36,420
Zijn ze een solide basis voor verdere ontwikkeling en kunnen ze helpen bij het versnellen van

67
00:04:36,420 --> 00:04:38,540
de ontwikkeling van AI-toepassingen?

68
00:04:38,540 --> 00:04:44,140
Wat mij betreft een veel vergeten eigenschap, die jij nu in ieder geval weet.

69
00:04:44,140 --> 00:04:45,460
Dank je wel voor het luisteren.

70
00:04:45,460 --> 00:04:47,540
[Muziek]

71
00:04:47,540 --> 00:04:49,540
[Muziek]

72
00:04:49,540 --> 00:04:52,620
[Muziek]


People on this episode