AIToday Live
AIToday Live is een boeiende Nederlandstalige podcast voor iedereen die geïnteresseerd is in de wereld van kunstmatige intelligentie, ongeacht hun technische achtergrond. Hier zijn een paar redenen waarom je misschien wilt luisteren naar AIToday Live:
- Expert Inzichten: De podcast biedt gesprekken met Nederlandse en Belgische experts op het gebied van AI, waardoor luisteraars waardevolle inzichten en meningen rechtstreeks van leiders en vernieuwers in de industrie krijgen.
- Toegankelijk voor een Breed Publiek: Of je nu diep in de technische details zit of gewoon nieuwsgierig bent naar AI, de podcast presenteert informatie op een manier die zowel begrijpelijk als boeiend is voor zowel zakelijke als IT-professionals.
- Laatste Nieuws en Trends: Blijf op de hoogte van de nieuwste ontwikkelingen en innovaties in AI. De podcast dekt AI for Good en andere belangrijke trends die invloed kunnen hebben op verschillende industrieën en de samenleving als geheel.
Gepresenteerd door Joop Snijder, CTO van Aigency, en Niels Naglé, Area Lead Data & AI van Info Support, biedt de podcast een uniek perspectief op de praktische toepassing van AI binnen organisaties. Het duo bespreekt de (on)mogelijkheden van AI, de impact ervan op bedrijfsprocessen en hoe organisaties deze technologie kunnen inzetten om hun doelstellingen te bereiken.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Met deskundige gasten uit de industrie en academische wereld, biedt de AIToday Live podcast een platform voor het delen van best practices, innovaties en belangrijke inzichten in de wereld van AI. Van de nieuwste algoritmen en modellen tot de impact van AI op de toekomst van werk, de podcast biedt waardevolle informatie voor iedereen die geïnteresseerd is in AI en de rol die het speelt in organisaties.
Voor exclusieve content over de podcast achter de schermen, aankondiging van gasten en exclusieve artikelen, schrijf je dan in voor de nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E54 - Foundational Models: het fundament om AI op te bouwen
Waarom Foundational Models de basis vormen van AI-ontwikkeling?
Foundational models, zoals ChatGPT en Google Bard, worden steeds populairder in de wereld van AI. Ze vormen de basis voor andere AI-modellen en kunnen op een breed scala aan taken worden toegepast.
Ontdek waarom deze modellen zo belangrijk zijn en hoe ze de ontwikkeling van nieuwe AI-toepassingen versnellen.
Links
- ResNet: Computer vision model voor objectherkenning (https://pytorch.org/hub/pytorch_vision_resnet/)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,600
De wereld is in de band van ChatGPT, Midjourney, Google Bard en noem maar op.
2
00:00:05,600 --> 00:00:11,400
Prompts worden gedeeld om nog betere resultaten te halen en tips en trucs zijn overal te vinden.
3
00:00:11,400 --> 00:00:16,400
Maar volgens mij wordt een hele belangrijke eigenschap van deze modellen over het hoofd gezien.
4
00:00:16,400 --> 00:00:20,000
En dat is dat deze modellen zogenaamde foundational models zijn.
5
00:00:20,000 --> 00:00:24,400
Dit is een aflevering van AIToday Live Shorts.
6
00:00:24,400 --> 00:00:27,400
De actualiteit over AI in 5 minuten.
7
00:00:27,400 --> 00:00:38,320
Ik zeg niet voor niets de actualiteit over AI, want OpenAI heeft de afgelopen dagen een
8
00:00:38,320 --> 00:00:40,840
vastlijst aan nieuwe functionaliteiten aangekondigd.
9
00:00:40,840 --> 00:00:48,680
Je kunt binnenkort plaatjes laten maken met ChatGPT en die kan zelfs letterlijk gaan praten
10
00:00:48,680 --> 00:00:53,840
en kan je uitleg gaan geven hoe je een klus klaart samen met tekst en beeld.
11
00:00:53,840 --> 00:01:00,400
Ik verwacht van zowel OpenAI als van de concurrentie nog veel meer in de aankomende maanden, omdat
12
00:01:00,400 --> 00:01:03,680
het voor ze steeds eenvoudiger wordt om functionaliteit toe te voegen.
13
00:01:03,680 --> 00:01:06,200
Ze kunnen doorbouwen op wat ze hebben.
14
00:01:06,200 --> 00:01:08,600
Ze hebben namelijk een foundational model gebouwd.
15
00:01:08,600 --> 00:01:13,280
En foundational models zijn de bouwstenen van moderne AI toepassingen.
16
00:01:13,280 --> 00:01:18,000
Deze modellen zijn getraind op enorme datasets en hebben geleerd om patronen te herkennen
17
00:01:18,000 --> 00:01:19,000
in deze data.
18
00:01:19,000 --> 00:01:24,680
Ze zijn zo ontworpen om op een breed scala aan taken toepasbaar te zijn en fungeren daarmee
19
00:01:24,680 --> 00:01:26,960
als de basis voor meer specifieke modellen.
20
00:01:26,960 --> 00:01:32,680
Het belangrijke eigenschap van foundational models is dat ze het mogelijk maken om met
21
00:01:32,680 --> 00:01:35,640
minder data juist nieuwe modellen te trainen.
22
00:01:35,640 --> 00:01:38,680
Het is als het bouwen van een huis om een stevig fundament.
23
00:01:38,680 --> 00:01:43,320
Het fundament zorgt ervoor dat het huis stabiel blijft ongeacht hoe groot of complex het huis
24
00:01:43,320 --> 00:01:44,320
ook is.
25
00:01:44,320 --> 00:01:49,760
Zo bieden foundational models een solide basis voor verdere ontwikkeling, waardoor het gemakkelijker
26
00:01:49,760 --> 00:01:55,320
wordt om nieuwe, meer specifieke modellen op jouw geënt te ontwerpen en te trainen.
27
00:01:55,320 --> 00:01:59,560
Een analogie die dit goed illustreert is die van de taal.
28
00:01:59,560 --> 00:02:05,080
Als we een nieuwe taal willen leren, beginnen we meestal met de basisprincipes zoals grammatica
29
00:02:05,080 --> 00:02:06,080
en de vocabulaire.
30
00:02:06,080 --> 00:02:12,200
Maar maten we meer leren en onze vaardigheidsniveau verbeterd, kunnen we ons richten op specifiekere
31
00:02:12,200 --> 00:02:16,160
aspecten van de taal zoals spreekvaardigheid, lezen, schrijven.
32
00:02:16,160 --> 00:02:19,640
Foundational models werken op een vergelijkbare manier.
33
00:02:19,640 --> 00:02:25,040
Deze modellen zijn voorgetraind op enorm hoeveelheden data die je fundament kunnen zijn waarop je
34
00:02:25,040 --> 00:02:26,040
door kan bouwen.
35
00:02:26,040 --> 00:02:27,840
Laat ik het concreet maken.
36
00:02:27,840 --> 00:02:30,960
Een veel gebruikt model in computer vision is ResNet.
37
00:02:30,960 --> 00:02:33,880
Dit model kan ontzettend veel verschillende objecten herkennen.
38
00:02:33,880 --> 00:02:38,040
Maar wanneer je zelf een product hebt ontwikkeld dat ResNet nog nooit gezien heeft, dan kan
39
00:02:38,040 --> 00:02:39,720
het model dit uiteraard niet herkennen.
40
00:02:39,720 --> 00:02:46,720
Omdat ResNet al zoveel geleerd heeft over het herkennen van vormen, texturen, kleuren,
41
00:02:46,720 --> 00:02:52,400
et cetera, heb je veel minder foto's van je eigen product nodig om deze erbij te trainen.
42
00:02:52,400 --> 00:02:56,360
Het model leert sneller nieuwe onbekende objecten te herkennen.
43
00:02:56,360 --> 00:02:59,680
Je hebt doorgebouwd op het fundament dat al gelegd is.
44
00:02:59,680 --> 00:03:06,960
Zo kun je taalmodellen als GPT-4 gebruiken om deze specifiek te maken naar jouw wensen.
45
00:03:06,960 --> 00:03:11,860
Omdat het structuur van taal begrijpt, patronen snapt, is het dus eenvoudiger om nieuwe kennis
46
00:03:11,860 --> 00:03:12,860
toe te voegen.
47
00:03:12,860 --> 00:03:17,620
Zo kun je kennis, informatie en gegevens uit je eigen organisatie gebruiken om GPT naar
48
00:03:17,620 --> 00:03:24,660
jouw wensen te boetseren en zodat het minder algemeen is dat als je het gewoon zo gebruikt,
49
00:03:24,660 --> 00:03:27,300
maar juist de context snapt van jouw organisatie.
50
00:03:27,300 --> 00:03:32,360
Ik kwam deze week nog het misverstand tegen dat je ontzettend veel data nodig hebt om
51
00:03:32,360 --> 00:03:33,900
foundational models bij te trainen.
52
00:03:33,900 --> 00:03:38,900
Uiteraard moeten de gegevens die je aanbiedt aan een foundational model van goede kwaliteit
53
00:03:38,900 --> 00:03:42,260
zijn en dat kan nog best wel een opgave zijn.
54
00:03:42,260 --> 00:03:47,900
Maar zodra je die hebt, die data, kun je als het ware een stevig huis gaan bouwen op het
55
00:03:47,900 --> 00:03:53,260
fundament dat voor je neergelegd is, wat natuurlijk enorme kracht is van deze modellen.
56
00:03:53,260 --> 00:03:57,860
Maar, zoals jullie waarschijnlijk weten als vaste luisteraar, hecht ik ook heel veel waarde
57
00:03:57,860 --> 00:04:01,260
aan de transparantie en uitlegbaarheid van AI-systemen.
58
00:04:01,260 --> 00:04:05,260
Op dat gebied schieten de foundational models echt nog wel te kort.
59
00:04:05,260 --> 00:04:07,860
Het zijn zogenaamde blackbox-modellen.
60
00:04:07,860 --> 00:04:12,460
Omdat deze modellen zo complex zijn en op enorme datasets getraind zijn,
61
00:04:12,460 --> 00:04:15,660
is het vaak moeilijk om uit te leggen hoe ze tot hun conclusies komen.
62
00:04:15,660 --> 00:04:18,260
Dit kan leiden tot vertrouwensproblemen,
63
00:04:18,260 --> 00:04:22,660
kan moeilijk maken om beslissingen te nemen op basis van de uitkomsten van deze modellen.
64
00:04:22,660 --> 00:04:26,260
Maar, ondanks deze uitdagingen,
65
00:04:26,260 --> 00:04:30,660
bieden foundational models veel potentieel voor AI-ontwikkeling en innovatie.
66
00:04:30,660 --> 00:04:36,420
Zijn ze een solide basis voor verdere ontwikkeling en kunnen ze helpen bij het versnellen van
67
00:04:36,420 --> 00:04:38,540
de ontwikkeling van AI-toepassingen?
68
00:04:38,540 --> 00:04:44,140
Wat mij betreft een veel vergeten eigenschap, die jij nu in ieder geval weet.
69
00:04:44,140 --> 00:04:45,460
Dank je wel voor het luisteren.
70
00:04:45,460 --> 00:04:47,540
[Muziek]
71
00:04:47,540 --> 00:04:49,540
[Muziek]
72
00:04:49,540 --> 00:04:52,620
[Muziek]