
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E50 - Over de bedelaars van Silicon Valley en een nationaal AI Deltaplan
In deze aflevering van AIToday Live haalt host Joop Snijder de claims van AI-bedrijven kritisch onder de loep. Waarom beweren de bazen van OpenAI en Anthropic dat AI letterlijk alle taken zal overnemen? Joop onthult waarom deze tech-CEO's in zijn ogen "ordinaire bedelaars" zijn die vooral hun investeerders willen paaien.
Maar het verhaal heeft ook een hoopvolle wending: Joop bespreekt het inspirerende voorstel voor een Nederlands AI-deltaplan van Jelle Prins en Michiel Bakker. Net zoals de Deltawerken ons beschermen tegen het water, kunnen we met een nationaal AI-plan onze digitale soevereiniteit veiligstellen.
Een nuchtere blik op AI-hype, gevolgd door een krachtig pleidooi voor Nederlandse eigenheid in het AI-tijdperk.
Onderwerpen
- Overdreven claims van AI-bedrijven
- Historie van technologische overdrijving
- Nederlands Deltaplan voor AI
- Zelfstandigheid en weerbaarheid in AI
- Oproep tot actie voor AI-initiatieven
Links
- Podcast: AIToday Live podcast
- Artikel: Waarom Nederland dringend een AI-Deltaplan nodig heeft: ‘We verliezen de regie’
- Talkshow: Alexander Klöpping over AI in de toekomst
Genoemde entiteiten: OpenAI - Anthropic - Dario Amodei - Jelle Prins - Michiel Bakker
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:02,460 --> 00:00:06,300
AI gaat alle taken van ons overnemen. Letterlijk alle taken.
2
00:00:07,060 --> 00:00:08,900
Geen voorbehoud, geen nuance, gewoon alles.
3
00:00:09,460 --> 00:00:14,480
Tenminste, deze bewering deed Dario Amodei van Anthropic, de makers van Claude.
4
00:00:15,040 --> 00:00:18,260
En dat werd opgevoerd in een klein college op het podium.
5
00:00:18,620 --> 00:00:22,840
Een ononderbroken TED-talk vol doemscenario's op nationale televisie.
6
00:00:23,780 --> 00:00:29,700
En ik ga je vandaag laten horen waarom deze bazen van taalmodellen in mijn ogen ordinaire bedelaars zijn.
7
00:00:30,200 --> 00:00:32,460
en dat er niet één vaststaande toekomst bestaat.
8
00:00:34,860 --> 00:00:38,660
Het kan je haast niet ontgaan zijn, maar vorige week heeft Alexander Klöpping
9
00:00:38,760 --> 00:00:42,020
een toekomstbeeld geschetst in de talkshow van Eva Jinek.
10
00:00:42,460 --> 00:00:45,400
En voor wie het gemist heeft, kwam het in het kort hierop neer.
11
00:00:45,940 --> 00:00:50,480
Volgens de bazen van OpenAI, Anthropic en andere leveranciers van grote taalmodellen
12
00:00:50,820 --> 00:00:55,080
wordt AI zo slim dat het alle taken voor ons kan overnemen.
13
00:00:55,500 --> 00:00:56,920
En je hoort het goed, alle taken.
14
00:00:57,560 --> 00:01:00,800
En dit was een quote van de baas van Anthropic, de maker van Claude.
15
00:01:00,890 --> 00:01:07,760
Die werd getoond en dit was dan de start van het mini college vol op het podium als een ononderbroken TED talk.
16
00:01:08,880 --> 00:01:18,700
Naast de claim dat AI alle taken overneemt, werd er direct bij gezegd dat gerenommeerde wetenschappers deze visie delen om het verhaal ook autoriteit te verschaffen.
17
00:01:19,460 --> 00:01:23,380
Klöpping gaf wel aan dat het slechts om één toekomstscenario gaat.
18
00:01:25,240 --> 00:01:30,460
Maar degene die hij schetst is wel meteen één van de zwartste die je maar kan voorstellen.
19
00:01:31,400 --> 00:01:34,060
En ik vraag me soms wel eens af, wat is er toch mis met mensen?
20
00:01:35,040 --> 00:01:39,300
Wat zit er nou in ons dat wij ons zo laven aan die zwarte scenario's?
21
00:01:39,720 --> 00:01:42,920
Zoek op de introductie van de trein of andere technologie.
22
00:01:43,460 --> 00:01:46,760
En we weten als mens de vreemdste toekomstbeelden te fantaseren.
23
00:01:48,140 --> 00:01:50,200
Een van de dingen bij die trein is.
24
00:01:50,540 --> 00:01:52,580
Vrouwen zouden niet met de trein moeten reizen.
25
00:01:53,060 --> 00:01:55,120
Want ze zouden de snelheid niet aankunnen.
26
00:01:55,460 --> 00:01:57,240
En de baarmoeder zou verschuiven.
27
00:01:58,479 --> 00:02:00,060
Ja, onwaarschijnlijk onzin toch?
28
00:02:00,920 --> 00:02:04,740
En dit soort onzin proefde ik ook wel in dit praatje.
29
00:02:06,320 --> 00:02:11,320
En ik ga echt niet het dingetje van Alexander Klöpping zitten bashen.
30
00:02:11,560 --> 00:02:13,840
Maar ik wilde juist elementen uithalen.
31
00:02:14,160 --> 00:02:17,380
Waarom we dit steeds horen.
32
00:02:18,060 --> 00:02:25,380
Want deze mannen, en dan bedoel ik de mannen van, het zijn ook eigenlijk allemaal mannen van deze leveranciers van die taalmodellen.
33
00:02:25,980 --> 00:02:31,380
Die roepen niet voor niks dat alle taken door AI overgenomen gaan worden.
34
00:02:31,840 --> 00:02:34,080
En dat komt omdat ze gewoon bedelaars zijn.
35
00:02:34,720 --> 00:02:38,480
Waar ze ook zitten of presenteren, eigenlijk houden ze gewoon hun handje op.
36
00:02:39,080 --> 00:02:40,520
Niet naar jou, niet naar mij.
37
00:02:40,990 --> 00:02:43,040
Nee, ze zeggen dit allemaal voor de investeerders.
38
00:02:44,460 --> 00:02:49,300
Want stel je bent rijk en je moet nu keuzes maken waar je je miljoenen in gaat stoppen.
39
00:02:50,000 --> 00:02:54,480
Dan is die pitch dat er een product is die straks al het werk van de wereld gaat doen.
40
00:02:54,660 --> 00:02:56,080
Is natuurlijk dan onweerstaanbaar.
41
00:02:56,320 --> 00:02:57,520
Zou jij hier niet gevoelig voor zijn?
42
00:02:58,460 --> 00:03:02,380
Dus die claim dat AI binnen twee jaar alle taken gaat overnemen.
43
00:03:02,680 --> 00:03:05,440
Kunnen we echt met een hele flinke korrel zout nemen.
44
00:03:06,600 --> 00:03:10,220
Nou dan het toekomstbeeld door die gerenommeerde wetenschappers.
45
00:03:11,740 --> 00:03:16,420
Ik weet niet hoe het met jou zit, maar mij maakt het niet zo heel veel uit hoe gerenommeerd iemand is.
46
00:03:17,620 --> 00:03:23,940
Maar ik ben er namelijk niet van overtuigd dat iemand überhaupt in de toekomst kan kijken.
47
00:03:24,460 --> 00:03:29,040
En zeker niet over een periode van vijf jaar die daar geschetst werd.
48
00:03:30,140 --> 00:03:34,060
Uiteraard krijgen we te maken met negatieve effecten van deze technologie.
49
00:03:34,420 --> 00:03:35,140
Ik ben niet naïef.
50
00:03:36,100 --> 00:03:39,640
Maar ik denk wel andere dan die we nu voorzien.
51
00:03:40,180 --> 00:03:44,280
Met de introductie van het internet konden we niet bevroeden waar we nu tegen aan lopen.
52
00:03:46,240 --> 00:03:50,720
De basis van het college was op zijn minst dubieus.
53
00:03:51,400 --> 00:03:53,640
En was het college dan helemaal slecht?
54
00:03:54,220 --> 00:03:55,520
Nee, dat denk ik niet.
55
00:03:55,820 --> 00:04:00,640
Want uiteindelijk eindigde het namelijk met een oproep voor een deltaplan.
56
00:04:01,860 --> 00:04:04,340
Want ook al kunnen we de toekomst niet precies voorspellen.
57
00:04:04,720 --> 00:04:13,500
We kunnen wel inschatten dat AI een gigantische impact gaat hebben op ons onderwijs, onze manier van werken, defensie, gezondheidszorg en zelfs onze democratie.
58
00:04:14,900 --> 00:04:21,760
Daarom was ik juist aangenaam verrast door de oproep van Jelle Prins en Michiel Bakker die daags voor de uitzending naar buiten kwam.
59
00:04:23,180 --> 00:04:32,020
Zij gebruiken namelijk onze nationale trots, de Deltawerken, als een heldere analogie voor de urgentie en de aanpak van een nationaal AI-plan.
60
00:04:32,580 --> 00:04:36,680
En misschien werd met dat college ook wel een soort van urgentie geprobeerd op te wekken.
61
00:04:37,220 --> 00:04:43,320
Maar goed, de redenatie van Prins en Bakker is eigenlijk simpel maar krachtig.
62
00:04:43,980 --> 00:04:49,960
Want net zoals de watersnoodramp van 1953 aantoonde dat Nederland kwetsbaar was voor overstromingen.
63
00:04:50,740 --> 00:04:55,020
Laat de opkomst van EH zien dat we kwetsbaar zijn voor verlies van digitale soevereiniteit.
64
00:04:55,880 --> 00:05:00,220
En we lopen het risico de controle over vitale technologieën kwijt te raken.
65
00:05:00,380 --> 00:05:01,840
Stel is hij, en daar ben ik het mee eens.
66
00:05:02,700 --> 00:05:07,420
En de deltawerken waren een grootschalig collectief antwoord op een duidelijke dreiging.
67
00:05:08,120 --> 00:05:13,480
Een nationale mobilisatie waarbij overheid, bedrijfsleven en wetenschap samenwerkte.
68
00:05:14,180 --> 00:05:17,500
Prins en Bakker pleitten voor een vergelijkbare aanpak voor AI.
69
00:05:18,120 --> 00:05:21,960
Een nationaal plan met langdurige inzet van alle partijen.
70
00:05:22,540 --> 00:05:26,160
Het draait om namelijk vooruitdenken en eigenaarschap nemen.
71
00:05:26,720 --> 00:05:37,100
En waar de deltawerken Nederland jarenlang hebben beschermd dankzij vooruitziend beleid en eigen infrastructuur, moeten we nu ook zelf AI capaciteiten opbouwen.
72
00:05:37,680 --> 00:05:40,120
Alleen zo blijven we in de toekomst zelfstandig en weerbaar.
73
00:05:41,420 --> 00:05:47,700
En AI wordt gepresenteerd als de digitale equivalent van waterveiligheid in hun deltaplan.
74
00:05:47,880 --> 00:05:53,340
Een fundament waarop onze samenleving gebouwd is dat je gewoon niet kunt overlaten aan anderen.
75
00:05:54,520 --> 00:05:59,880
Zelf vind ik dit echt een krachtig staaltje denkwerk waar we als Nederland per direct aan zouden moeten beginnen.
76
00:06:00,580 --> 00:06:07,260
Want terwijl de bedelaars van Silicon Valley een volgende financieringsronde voorbereiden, kunnen wij bezig zijn met echte vooruitgang.
77
00:06:07,760 --> 00:06:17,300
Een deltaplan dat inderdaad ons helpt de kansen van Neuai te benutten zonder onszelf afhankelijk te maken van de beloftes van mannen die vooral hun eigen zakken willen vullen.
78
00:06:18,620 --> 00:06:23,840
Dus mijn oproep is, lees vooral het voorstel van dat Deltaplan.
79
00:06:24,140 --> 00:06:25,840
Deze staat opgenomen in de show notes.
80
00:06:27,040 --> 00:06:27,920
Lees die goed door.
81
00:06:28,490 --> 00:06:32,740
En ga erachter staan en spreek je daar ook over uit.
82
00:06:33,200 --> 00:06:41,040
Kijk, met de huidige, laten we zeggen, politieke stand geloof ik niet zo dat het vandaag opgepakt gaat worden.
83
00:06:41,540 --> 00:06:45,940
Dus we hebben een kabinet die trots is dat ze kinderen niet naar de Efteling laten gaan.
84
00:06:46,340 --> 00:06:50,320
Terwijl dit soort uitdagingen vele malen groter zijn.
85
00:06:51,680 --> 00:06:53,260
Met z'n allen op naar het Deltaplan.
86
00:06:54,260 --> 00:06:57,400
En bedenk altijd, AI is niet de oplossing voor elk probleem.
87
00:06:57,740 --> 00:06:59,180
Maar onmisbaar waar het past.
88
00:07:00,240 --> 00:07:03,340
Dank je wel weer voor het luisteren naar deze korte aflevering van AIToday Live.
89
00:07:05,040 --> 00:07:09,520
Mis geen aflevering door eventjes snel op de knop volgen te drukken.
90
00:07:10,320 --> 00:07:11,560
In je favoriete podcast app.
91
00:07:11,640 --> 00:07:14,920
En dan krijg je automatisch een seintje als er weer een nieuwe aflevering beschikbaar is.
92
00:07:15,300 --> 00:07:16,060
Tot de volgende keer.