AIToday Live

S08E15 - De stille sabotage van AI-adoptie

Aigency by Info Support Season 8 Episode 15

In de nieuwste aflevering van AIToday Live staat een opmerkelijk fenomeen centraal: medewerkers die bewust kiezen om beschikbare AI-tools op het werk niet te gebruiken. Een luisteraar, werkzaam als architect bij een internationaal IT-bedrijf, signaleert dat collega's AI-tools thuis wel gebruiken maar op kantoor vermijden.

De reden blijkt verrassend pragmatisch: een consultant die met AI een taak in één dag kan afronden in plaats van vijf, vraagt zich af wat te doen met de overige vier dagen. Als niemand vraagt waarom het werk vijf dagen duurt, waarom dan sneller werken?

AI-tools van 2025 zijn fundamenteel anders dan hun voorgangers - moderne coding agents schrijven complete functies, testen ze en documenteren ze tot alles werkt. Het argument dat AI geen goede code schrijft, wordt bestempeld als "een lui antwoord" om verandering te vermijden.

Onderwerpen

  • Weerstand tegen AI-adoptie op de werkvloer
  • Impact van AI op productiviteit en werkprocessen
  • Rol van management in AI-implementatie
  • Gevolgen voor kennisontwikkeling van junior medewerkers
  • Selffulfilling prophecy in AI-gebruik
Links

Stuur ons een bericht

Stem op AIToday Live voor de Nationale AI Awards 2025 – dat kan tot 12 januari via aimaze.nl/ai-awards-voting-2025

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:02,399 --> 00:00:04,560
Hoi, welkom bij AIToday Live.

2
00:00:04,560 --> 00:00:05,680
De korte aflevering.

3
00:00:05,679 --> 00:00:11,200
Ik ben Joop Snijder en vandaag wil ik het hebben over iets wat ik steeds wat vaker tegenkom.

4
00:00:11,200 --> 00:00:14,959
Iets wat me eerlijk gezegd een beetje zorgen baart.

5
00:00:15,359 --> 00:00:18,719
Ik kreeg onlangs een uitgebreide mail van een luisteraar.

6
00:00:18,720 --> 00:00:22,720
Hij werkt als architect bij een groot internationaal IT-bedrijf.

7
00:00:22,719 --> 00:00:27,280
Duizenden collega's wereldwijd alle AI-tools beschikbaar.

8
00:00:28,079 --> 00:00:31,040
Alles aangeboden vanuit het moederbedrijf, schreef hij.

9
00:00:31,039 --> 00:00:33,039
En toch zegt hij.

10
00:00:33,039 --> 00:00:35,920
De adoptie is eigenlijk erg laag.

11
00:00:35,920 --> 00:00:40,320
Mensen hebben de tools, gebruiken ze thuis, maar op het werk bijna niet.

12
00:00:40,320 --> 00:00:42,320
En toen kwam de zin die bleef hangen.

13
00:00:42,320 --> 00:00:48,000
Hij schreef namelijk, ik krijg steeds meer het idee dat mensen het bewust niet gebruiken.

14
00:00:48,000 --> 00:00:49,759
Dus bewust niet gebruiken.

15
00:00:49,759 --> 00:00:51,520
Laat het even bezinken.

16
00:00:52,079 --> 00:00:54,240
Hij gaf aan: dit is wat er gebeurt.

17
00:00:54,240 --> 00:01:01,119
Een consultant doet normaal vijf dagen over het schrijven van een ontwerp of een set testscripts.

18
00:01:01,120 --> 00:01:03,840
Maar met AI kan dat in één dag.

19
00:01:04,079 --> 00:01:06,799
Maar dan krijg je het bord op je neus.

20
00:01:06,799 --> 00:01:09,840
Want oké, wat ga je met de andere vier dagen doen.

21
00:01:10,079 --> 00:01:16,799
En dus denkt die consultant, als ik gewoon vijf dagen blijf doen over mijn werk, vraagt niemand ernaar.

22
00:01:16,799 --> 00:01:18,640
Waarom zou ik dan sneller werken?

23
00:01:18,640 --> 00:01:20,640
Kijk, mijn eigen winkeltje blijft gevuld.

24
00:01:20,879 --> 00:01:23,439
Uren worden geschreven, niemand klaagt.

25
00:01:23,680 --> 00:01:30,079
En dit is ook een beetje de productiviteitsparadox waar ik het eerder over had in seizoen 7 aflevering 52.

26
00:01:30,079 --> 00:01:34,479
Maar deze luisteraar geeft aan wel maar een extra laag.

27
00:01:34,640 --> 00:01:38,000
Want het gaat niet alleen omdat de winst verdwijnt in nieuwe taken.

28
00:01:38,000 --> 00:01:42,479
Het gaat om mensen die actief kiezen om die winst niet eens te zoeken.

29
00:01:43,280 --> 00:01:49,519
En nu hoor ik zelf vaak het argument van AI schrijft geen goede code.

30
00:01:49,519 --> 00:01:53,999
Of ik heb het een jaar geleden geprobeerd en het was waardeloos.

31
00:01:54,239 --> 00:01:56,319
Laat me daar even iets over zeggen.

32
00:01:56,479 --> 00:02:00,239
Een jaar geleden had je tools die bijvoorbeeld code aanvulde.

33
00:02:00,239 --> 00:02:03,599
Een soort van autocomplete op steroïden.

34
00:02:03,840 --> 00:02:07,919
En ja, die maakte fouten en dat waren ook hele irritante fouten.

35
00:02:07,920 --> 00:02:12,080
En als je zelf een prima ontwikkelaar bent, was het vaak sneller om het zelf te doen.

36
00:02:12,080 --> 00:02:15,040
Maar we leven nu in 2025.

37
00:02:15,039 --> 00:02:18,159
De coding agents van vandaag zijn iets compleet anders.

38
00:02:18,159 --> 00:02:20,479
En die vullen niet meer automatisch tekst aan.

39
00:02:20,800 --> 00:02:26,079
Die schrijven complete functies, testen ze, documenteren ze en itereren totdat het werkt.

40
00:02:26,080 --> 00:02:31,840
Dus als je nu nog zegt dat AI geen goede code kan schrijven, dan vind ik dat gewoon een lui antwoord.

41
00:02:31,840 --> 00:02:36,240
Een manier om voor jezelf te rechtvaardigen dat je niet hoeft te veranderen.

42
00:02:36,240 --> 00:02:44,080
Het is makkelijker om te zeggen het werkt niet dan misschien om toe te geven dat je het wat spannend vindt of dat je niet weet waar je moet beginnen.

43
00:02:45,040 --> 00:02:48,560
Maar er is ook wel een blinde vlek vanuit het management.

44
00:02:48,560 --> 00:02:56,879
Want laten we eerlijk zijn: de schuld ligt niet alleen bij de mensen op de werkvloer qua gebrek aan adoptie, leidinggevenden hebben ook een rol in.

45
00:02:56,879 --> 00:02:59,840
Veel managers staan te ver van de techniek af.

46
00:02:59,840 --> 00:03:06,880
Ze zien niet wat radicale verandering AI betekent voor softwareontwikkeling of voor consultancy.

47
00:03:06,879 --> 00:03:10,560
Of voor welke kennisintensieve sector dan ook.

48
00:03:11,200 --> 00:03:15,280
Ze zitten vast in het comfort van het bekende.

49
00:03:15,279 --> 00:03:16,719
Ik heb het altijd zo gedaan.

50
00:03:16,719 --> 00:03:17,840
Team levert op tijd.

51
00:03:17,839 --> 00:03:19,439
Waarom zou ik vragen stellen?

52
00:03:19,520 --> 00:03:22,879
Mijn boodschap aan hen is: ga een open gesprek aan met je team.

53
00:03:22,879 --> 00:03:28,079
Vraag door, niet op een controlerende manier, maar uit oprechte nieuwsgierigheid.

54
00:03:28,159 --> 00:03:30,719
Hoe passen jullie je werkwijze aan?

55
00:03:30,719 --> 00:03:32,640
Waar biedt AI kansen?

56
00:03:32,639 --> 00:03:34,159
Waar zitten de risico's?

57
00:03:34,480 --> 00:03:35,919
Dat gesprek moet je voeren.

58
00:03:35,919 --> 00:03:39,039
Want als jij het niet doet, dwingt de markt het straks af.

59
00:03:39,039 --> 00:03:41,359
En de markt wacht niet.

60
00:03:41,680 --> 00:03:44,560
Kijk, als ik een schilder inhuur voor mijn huis.

61
00:03:44,720 --> 00:03:47,679
Dan wil ik niet dat hij er weken langer over doet.

62
00:03:47,680 --> 00:03:48,880
En dat hij dan zegt.

63
00:03:48,880 --> 00:03:51,840
Ja, ik werk graag met een miniatuurkwastje.

64
00:03:51,840 --> 00:03:53,680
Dat dekt lekker alles beter.

65
00:03:54,000 --> 00:03:59,680
Ik ben een professional die de juiste tools gebruikt en de klus goed, snel en naar tevredenheid afrond.

66
00:03:59,680 --> 00:04:01,759
Datzelfde geldt voor kenniswerk.

67
00:04:01,759 --> 00:04:03,439
Klanten gaan vragen stellen.

68
00:04:03,439 --> 00:04:07,679
Waarom duurt het project zes maanden terwijl jullie concurrent het in drie maanden doet.

69
00:04:07,680 --> 00:04:10,479
En wij gebruiken liever geen AI.

70
00:04:13,120 --> 00:04:14,240
Dat is niet houdbaar.

71
00:04:14,240 --> 00:04:16,639
Die verschillen worden zichtbaar.

72
00:04:17,280 --> 00:04:21,359
Maar er is nog een interessante andere kant.

73
00:04:21,360 --> 00:04:22,879
Waar ik het nu over wil hebben.

74
00:04:22,879 --> 00:04:25,519
Want diezelfde luisteraar schreef namelijk nog iets.

75
00:04:25,519 --> 00:04:27,439
Iets wat me persoonlijk raakte.

76
00:04:27,439 --> 00:04:31,199
Hij werkte namelijk aan een proof of concept voor een hackathon.

77
00:04:31,199 --> 00:04:35,520
Hij was begonnen met vier mensen, drie techneuten en een functioneel iemand.

78
00:04:35,519 --> 00:04:37,040
Maar wat bleek?

79
00:04:37,040 --> 00:04:40,240
Hij heeft de andere techneuten eigenlijk niet meer nodig.

80
00:04:40,240 --> 00:04:41,839
Het concept zit in zijn hoofd.

81
00:04:41,840 --> 00:04:45,680
En met AI kan hij razendsnel schakelen van links naar rechts.

82
00:04:45,680 --> 00:04:46,959
Zo zegt hij.

83
00:04:46,960 --> 00:04:49,920
Het brengt mij steeds meer in een bubbel.

84
00:04:49,920 --> 00:04:52,560
Laat mij het maar doen, want ik weet wat ik wil.

85
00:04:52,560 --> 00:04:56,079
Ik kom overal uit met AI en ik begrijp alle grote lijnen.

86
00:04:56,079 --> 00:04:58,480
Laat mij met rust, ik doe het wel.

87
00:04:58,480 --> 00:04:59,800
Zo zegt hij.

88
00:05:00,439 --> 00:05:01,720
Dit herken ik wel.

89
00:05:01,439 --> 00:05:03,480
Ik merk het bij mezelf soms ook wel.

90
00:05:03,560 --> 00:05:07,800
Ik bouw regelmatig AI-agents voor onze podcast of andere agents.

91
00:05:07,800 --> 00:05:09,560
Ik weet dan precies wat ik wil.

92
00:05:09,560 --> 00:05:15,560
Daardoor kan ik met een coding agent veel sneller ontwikkelen dan wanneer ik het aan een collega zou uitleggen.

93
00:05:15,560 --> 00:05:20,759
Dat uitleggen, dat kost tijd, afstemmen kost tijd, wachten op beschikbaarheid kost tijd.

94
00:05:21,000 --> 00:05:23,719
En dan denk je soms ook maar ja, laat mij maar even.

95
00:05:23,720 --> 00:05:25,319
Ik regel het wel.

96
00:05:25,560 --> 00:05:27,879
Ik regel het wel, moet ik zeggen.

97
00:05:28,120 --> 00:05:29,960
Maar je zit wel een gevaar.

98
00:05:29,960 --> 00:05:32,519
Want wat doe je met je junioren?

99
00:05:32,519 --> 00:05:39,240
Vroeger kreeg een junior korte opdrachten, niet te groot, niet te spannend, opdrachten waar je dan ook wat langer over mocht doen.

100
00:05:39,240 --> 00:05:41,560
Waar je mag worstelen, fouten mag maken.

101
00:05:41,560 --> 00:05:46,680
Zo bouw je ervaring op en zo groeien van junior naar medior naar senior.

102
00:05:47,319 --> 00:05:53,719
Wat als de senior alles zelf met AI blijft doen, waar blijft die leercurve voor de junior dan.

103
00:05:55,159 --> 00:06:00,439
Of je krijgt opdrachten die te saai zijn om aan AI te geven.

104
00:06:00,439 --> 00:06:05,720
En over een aantal jaren zijn die senioren weg, pensioen, weet ik het.

105
00:06:05,720 --> 00:06:07,960
De junioren moeten in ieder geval groeien.

106
00:06:08,199 --> 00:06:11,400
En die zijn dan nooit echt junior geweest.

107
00:06:13,160 --> 00:06:17,319
En in onze aflevering over AI en werkgelegenheid had ik het hier ook al over.

108
00:06:17,319 --> 00:06:21,560
Je kunt alleen goed aansturen wat je zelf begrijpt.

109
00:06:21,560 --> 00:06:27,000
Een consultant die nooit zelf analyses heeft gemaakt, kan geen AI-output valideren.

110
00:06:27,000 --> 00:06:32,040
Een ontwikkelaar die nooit zelf code heeft geschreven, weet niet wanneer de AI onzin produceert.

111
00:06:32,040 --> 00:06:36,359
En dat geldt dus ook voor schrijven van alles en nog wat.

112
00:06:36,600 --> 00:06:39,239
Dit gaat over sectoren heen.

113
00:06:42,040 --> 00:06:47,719
De luisteraar zei ook van zo ontstaat er een tweede selffulfilling prophecy.

114
00:06:47,720 --> 00:06:52,120
De expert betrekt niemand in zijn project, want hij zit in die flow.

115
00:06:52,120 --> 00:06:55,639
Maar daardoor is de adoptie van AI bij anderen weer lager.

116
00:06:55,639 --> 00:06:59,079
Zij zien het niet, zij leren het niet en ze blijven achter.

117
00:07:01,240 --> 00:07:05,479
Hij schreef ook: hier komt misschien het gevaar van mijn eigen selffulfilling prophecy.

118
00:07:05,480 --> 00:07:10,759
Ik betrek niemand in mijn project, maar daardoor is de adoptie van AI bij anderen weer minder.

119
00:07:11,240 --> 00:07:13,240
Omdat ik ze niet betrek.

120
00:07:13,240 --> 00:07:16,120
Dat vind ik wel heel eerlijke zelfreflectie.

121
00:07:18,199 --> 00:07:20,839
Dat zie ik zelf ook wel gebeuren.

122
00:07:21,800 --> 00:07:24,439
Ik heb hier geen kant-en-klaar antwoord op wat je zou moeten doen.

123
00:07:24,439 --> 00:07:31,160
Ik weet niet precies hoe je die balans vindt tussen dingen zelf doen, tussen snel zijn met AI en anderen de ruimte geven om te groeien.

124
00:07:31,159 --> 00:07:33,319
Dus tussen efficiëntie en kennisoverdracht.

125
00:07:33,319 --> 00:07:36,759
Maar door deze mail ben ik me er wel weer extra bewust van geworden.

126
00:07:36,759 --> 00:07:41,240
En ik ga er in ieder geval serieus over nadenken, hoe ik die balans kan vinden.

127
00:07:41,240 --> 00:07:43,719
Daarom wil ik de vraag ook aan jou stellen.

128
00:07:43,720 --> 00:07:44,920
Hoe doe jij dat dan?

129
00:07:44,920 --> 00:07:48,279
Werk je met AI in je eentje of betrek je je team.

130
00:07:48,439 --> 00:07:51,000
Hoe zorg je dat junioren nog kunnen leren.

131
00:07:51,240 --> 00:07:55,080
Misschien kun je deze week eens met je team bespreken hoe jullie AI inzetten.

132
00:07:55,079 --> 00:08:01,079
En dan niet in de formele vergadering, maar gewoon eens bij de koffie en luister zonder oordeel.

133
00:08:02,280 --> 00:08:07,079
Ik zou het heel erg leuk vinden als je het ook zou kunnen delen, wat er uitgekomen is.

134
00:08:07,399 --> 00:08:12,840
Maar in ieder geval wil ik de luisteraar die deze uitgebreide feedback stuurde, wil ik bedanken.

135
00:08:12,839 --> 00:08:16,040
Dit soort mails maken, denk ik de podcast ook echt beter.

136
00:08:16,039 --> 00:08:21,959
En als je ook iets wilt delen over hoe AI jouw werk verandert, positief of negatief, laat het maar weten.

137
00:08:22,120 --> 00:08:24,759
Het belangrijkste is natuurlijk, bedenk altijd.

138
00:08:24,759 --> 00:08:29,160
AI is niet de oplossing van elk probleem, maar onmisbaar waar het past.

139
00:08:29,639 --> 00:08:31,719
Tot de volgende keer.