AIToday Live

S06E66 - AI-schaamte: een nieuwe manier om je schuldig te voelen?

Aigency by Info Support Season 6 Episode 66

In deze aflevering van AIToday Live vragen we ons af of we ons moeten schamen voor AI-gebruik, net zoals vliegschaamte.

Joop heeft een duidelijke mening: schaamte is niet de oplossing, maar hoe kunnen we het energieverbruik kunnen optimaliseren zonder in te boeten op de voordelen van AI? Concrete stappen, zoals het verbeteren van software-efficiëntie en het gebruik van energiezuinige hardware, komen aan bod.

Ook wordt de rol van de EU-AI-act en de noodzaak van uitlegbaarheid van modellen besproken. 

De aflevering biedt inzichten in hoe bewustwording en duurzame keuzes bijdragen aan een verantwoorde inzet van AI-technologie.

Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:06,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,000 --> 00:00:11,480
Vandaag hebben we een onderwerp dat vaak onderbelicht blijft in discussies, namelijk over de opkomst

3
00:00:11,480 --> 00:00:13,640
van AI en energieverbruik.

4
00:00:13,640 --> 00:00:18,800
En een aansluitende vraag hebben we ook gekregen van onze luisteraar, dus die komt later aanbod

5
00:00:18,800 --> 00:00:19,800
.

6
00:00:19,800 --> 00:00:25,800
Er groeit een toenemende bezorgdheid dat de explosieve groei van generatieve AI, zoals

7
00:00:25,800 --> 00:00:30,840
ChatGPT en andere grote taalmodellen, bijdraagt aan een significant hoger energieverbruik.

8
00:00:30,840 --> 00:00:35,960
En dit roept natuurlijk vragen op over duurzaamheid en of we, vergelijkbaar met het concept van

9
00:00:35,960 --> 00:00:40,320
vliegschaamte, niet een vorm van AI-schaamte zouden moeten voelen.

10
00:00:40,320 --> 00:00:46,160
Laten we eerst eens kritisch kijken naar het begrip schaamte zelf.

11
00:00:46,160 --> 00:00:52,440
Want schaamte is een intens negatieve emotie die ontstaat wanneer je meent iets oneervols

12
00:00:52,440 --> 00:00:54,240
of immoreels te hebben gedaan.

13
00:00:54,240 --> 00:00:58,760
Het is een gevoel dat je kan verlammen en je zelfbeeld ernstig kan aantasten.

14
00:00:58,760 --> 00:01:04,360
Schaamte is nauw verbonden met hoe je denkt dat je omgeving jou ziet en jou beoordeelt.

15
00:01:04,360 --> 00:01:09,600
En in mijn ogen is schaamte daarom niet de juiste weg om positieve veranderingen teweeg

16
00:01:09,600 --> 00:01:10,600
te brengen.

17
00:01:10,600 --> 00:01:15,160
Schaamte doet me denken aan de moralistische benadering van de jaren 50 van de vorige eeuw.

18
00:01:15,160 --> 00:01:19,840
Het leidt typisch tot vingerwijzen of zoals de Engelsen zeggen, shaming en blaming.

19
00:01:19,840 --> 00:01:26,120
Met schaamte kunnen we anderen de maat nemen en het creëert ook nog eens onproductieve

20
00:01:26,120 --> 00:01:29,200
tegenstelling van alles of niets.

21
00:01:29,200 --> 00:01:37,120
Dus wie mij kent en wie mij een beetje kent weet dat ik positief ben ingesteld.

22
00:01:37,120 --> 00:01:42,560
En daarom pleit ik er liever voor dat we ons richten op positieve motivatie, constructieve

23
00:01:42,560 --> 00:01:45,560
actie en het maken van genuanceerde keuzes.

24
00:01:45,560 --> 00:01:50,280
In plaats van onszelf of anderen schaamte aan te praten over het gebruik van een jaar, kunnen

25
00:01:50,280 --> 00:01:56,720
we beter concrete stappen nemen om het energieverbruik juist te beheersen en mogelijk te verminderen.

26
00:01:56,720 --> 00:02:01,560
In onze organisatie hebben we bijvoorbeeld een tool ontwikkeld die het energieverbruik

27
00:02:01,560 --> 00:02:03,920
van verschillende machine learning modellen berekent.

28
00:02:03,920 --> 00:02:09,720
Dit stelt ons in staat om een zorgvuldige balans te vinden tussen betrouwbaarheid en energieverbruik

29
00:02:09,720 --> 00:02:11,400
van de modellen die wij trainen.

30
00:02:11,400 --> 00:02:18,520
En dan kunnen we dus ook een wel overwogen keuze maken tussen allerlei van dit soort

31
00:02:18,520 --> 00:02:19,520
metrieken.

32
00:02:19,520 --> 00:02:25,120
Ik ben ervan overtuigd dat dergelijke positieve benaderingen veel effectiever zijn dan het

33
00:02:25,120 --> 00:02:27,320
cultiveren van schaamtegevoelens.

34
00:02:27,320 --> 00:02:35,800
Maar laten we eens kijken naar enkele concrete manieren waarop het energieverbruik van AI

35
00:02:35,800 --> 00:02:41,160
hoe we dat kunnen beperken zonder afbreuk te doen aan de enorme voordelen die deze technologie

36
00:02:41,160 --> 00:02:42,160
uiteindelijk biedt.

37
00:02:42,160 --> 00:02:43,160
1.

38
00:02:43,160 --> 00:02:44,160
Energie-efficiëntie.

39
00:02:44,160 --> 00:02:52,880
We kunnen voortdurend zoeken naar manieren om onze AI modellen zo efficiënt mogelijk

40
00:02:52,880 --> 00:02:53,880
te maken.

41
00:02:53,880 --> 00:03:00,000
Dit kan door optimalisaties in de code, het gebruik van energiezuinige hardware of door

42
00:03:00,000 --> 00:03:04,520
modellen te trainen met minder, maar juist hoogwaardige data.

43
00:03:04,520 --> 00:03:16,600
Of we kunnen nadruk leggen op duurzame innovatie, waarbij we nieuwe technieken en technologieën

44
00:03:16,600 --> 00:03:18,600
ontwikkelen die minder energie verbruiken.

45
00:03:18,600 --> 00:03:24,160
Denk hierbij aan het gebruik van juist kleiner gespecialiseerde modellen voor specifieke taken

46
00:03:24,160 --> 00:03:29,800
in plaats van één groot generiek model voor alles.

47
00:03:29,800 --> 00:03:36,640
Dit vermindert niet alleen het energieverbruik, maar kan zelfs je prestaties verbeteren van

48
00:03:36,640 --> 00:03:39,280
de modellen die je gebruikt.

49
00:03:39,280 --> 00:03:44,400
En daar gaat alles over is verantwoordelijkheid nemen.

50
00:03:44,400 --> 00:03:50,000
Als ontwikkelaars en gebruikers van AI moeten we bewust zijn van de impact van onze keuzes.

51
00:03:50,000 --> 00:03:54,760
Dit betekent dat we verder kijken dan wat technisch mogelijk is en ook de bredere gevolgen

52
00:03:54,760 --> 00:03:57,080
voor milieu en maatschappij in oogschouw nemen.

53
00:03:57,080 --> 00:04:03,920
Verantwoorde AI vereist transparantie over energieverbruik en actieve inspanning om deze

54
00:04:03,920 --> 00:04:05,680
impact te minimaliseren.

55
00:04:05,680 --> 00:04:11,360
Wat we in dit kader zeker niet moeten vergeten is dat traditionele machine learning modellen

56
00:04:11,360 --> 00:04:16,600
zoals logistische regressie en beslisboommodellen doorgaans veel minder energie verbruiken in

57
00:04:16,600 --> 00:04:19,800
vergelijking met generatieve AI modellen.

58
00:04:19,800 --> 00:04:26,160
Deze traditionele modellen zijn vaak eenvoudiger, minder rekenintensief en vereisen minder data

59
00:04:26,160 --> 00:04:27,240
om goed te presteren.

60
00:04:27,240 --> 00:04:32,880
Hoewel ze niet dezelfde complexiteit en veelzijdigheid bieden als grote taalmodellen, kunnen ze in

61
00:04:32,880 --> 00:04:38,960
heel veel praktische toepassingen uitstekende resultaten leveren met een veel kleinere ecologische

62
00:04:38,960 --> 00:04:39,960
voetafdruk.

63
00:04:39,960 --> 00:04:45,600
En dit brengt ons bij een interessante vraag van een van onze luisteraars van Jonathan.

64
00:04:45,600 --> 00:04:49,480
Laten we even luisteren naar wat hij te zeggen heeft.

65
00:04:49,480 --> 00:04:53,720
Hi Joop, mijn naam is Jonathan Vollmuller en werk als data scientist bij RISK.

66
00:04:53,720 --> 00:04:58,600
Mijn vraag over AI is, hoe kijken jullie naar de trend van afgelopen jaar om steeds meer

67
00:04:58,600 --> 00:05:01,800
traditionele machine learning problemen op te lossen met LLMs?

68
00:05:01,800 --> 00:05:04,400
En zal de AI actie hier iets aan gaan veranderen?

69
00:05:04,400 --> 00:05:08,360
Hartstikke bedankt Jonathan voor je vraag, want je snijdt hier namelijk een zeer relevant

70
00:05:08,360 --> 00:05:12,480
punt aan dat we in de praktijk inderdaad regelmatig tegenkomen.

71
00:05:12,480 --> 00:05:17,360
De verleiding om met taalmodellen eenvoudige classificatiemodellen te prompten is heel

72
00:05:17,360 --> 00:05:18,360
erg groot.

73
00:05:18,360 --> 00:05:22,640
Het is inderdaad reuze simpel en je hebt snel resultaat.

74
00:05:22,640 --> 00:05:26,320
Ik wil niet in herhaling vallen wat betreft de duurzaamheidsaspecten die ik eerder heb

75
00:05:26,320 --> 00:05:29,360
besproken, maar die zijn hier natuurlijk ook van toepassing.

76
00:05:29,360 --> 00:05:34,960
Wel wil ik wijzen op het cruciale verschil in accuraatheid en betrouwbaarheid tussen

77
00:05:34,960 --> 00:05:39,280
classificatie met een groot taalmodel en met traditionele machine learning.

78
00:05:39,280 --> 00:05:44,440
Want met die laatste heb je meer controle, betere herhaalbaarheid en een hogere betrouwbaarheid

79
00:05:44,440 --> 00:05:45,440
van de uitkomst.

80
00:05:45,440 --> 00:05:50,680
Wat betreft het tweede deel van je vraag over de EU-AI-act, dit is inderdaad een aspect

81
00:05:50,680 --> 00:05:54,240
dat door de hype rond generatieve AI soms over de hoofd wordt gezien.

82
00:05:54,240 --> 00:05:58,800
Hoewel ik geen jurist ben, kan ik je vertellen dat deze wetgeving zeker invloed heeft.

83
00:05:58,800 --> 00:06:03,040
Want naar mijn mening gaat het niet zozeer om de vraag of je wel of niet onder de wet

84
00:06:03,040 --> 00:06:09,800
valt, of in welke risicoklasse je terechtkomt, maar eerder of je aan de vereisten van de

85
00:06:09,800 --> 00:06:11,480
bepaalde risicoklasse kunt voldoen.

86
00:06:11,480 --> 00:06:14,640
Een belangrijk aspect hierbij is uitlegbaarheid.

87
00:06:14,640 --> 00:06:18,920
Wat met grote taalmodellen op dit moment zo goed als onmogelijk is.

88
00:06:18,920 --> 00:06:23,440
We moeten er rekening mee houden dat systemen over het algemeen voor langere tijd worden

89
00:06:23,440 --> 00:06:24,720
ontwikkeld en ingezet.

90
00:06:24,720 --> 00:06:28,040
Daarom is het cruciaal om nu al slimme keuzes te maken.

91
00:06:28,040 --> 00:06:36,640
Dus de vraag voor classificatietaken zou ik in ieder geval altijd adviseren om te kiezen

92
00:06:36,640 --> 00:06:41,720
voor machine learning en dan specifiek voor de eenvoudigste, best uitlegbare varianten.

93
00:06:41,720 --> 00:06:49,840
Kijk, en naast het kiezen voor gemak voel je misschien ook wel een innerlijke druk om te

94
00:06:49,840 --> 00:06:54,640
kiezen voor het grootste en nieuwste, maar ook energie-intensiefste taalmodel.

95
00:06:54,640 --> 00:06:59,720
Het is verleidelijk om jezelf te overtuigen van de noodzaak hiervan, maar in werkelijkheid

96
00:06:59,720 --> 00:07:04,480
is het voor veel eenvoudiger en gestandaardiseerde taken zoals het beantwoorden van veelgestelde

97
00:07:04,480 --> 00:07:08,720
vragen of het bieden van basisinformatie vaak helemaal niet nodig om zo'n groot taalmodel

98
00:07:08,720 --> 00:07:09,720
te gebruiken.

99
00:07:09,720 --> 00:07:15,480
Kleinere en efficiëntere modellen kunnen dezelfde taken uitvoeren met veel minder energieverbruik.

100
00:07:15,480 --> 00:07:22,360
Deze modellen zijn specifiek ontworpen om lichtgewicht te zijn en kunnen snel en effectief

101
00:07:22,360 --> 00:07:24,760
antwoorden genereren voor minder complexe vragen.

102
00:07:24,760 --> 00:07:29,020
Dus door te kiezen voor een kleiner model bespaar je niet alleen op energiekosten, maar draag

103
00:07:29,020 --> 00:07:32,040
je ook nog eens bij aan een duurzamere inzet van AI-technologie.

104
00:07:32,040 --> 00:07:39,800
Het gaat uiteindelijk over bewustwording.

105
00:07:39,800 --> 00:07:47,600
En wanneer je deze denkwijze je eigen maakt over het kleine maken, schrappen van zaken

106
00:07:47,600 --> 00:07:54,360
die niet meer nodig zijn, wordt het net zo vanzelfsprekend als het uitdoen van het licht

107
00:07:54,360 --> 00:07:55,440
wanneer je een kamer verlaat.

108
00:07:55,440 --> 00:08:00,960
Het gaat erom dat we een cultuur creëren waarin we energiebewust zijn bij het gebruik

109
00:08:00,960 --> 00:08:04,760
van AI-technologie een natuurlijk onderdeel worden van ons dagelijks handelen.

110
00:08:04,760 --> 00:08:09,240
Dat betekent niet dat we moeten afzien van het gebruik van geavanceerde AI-modellen.

111
00:08:09,240 --> 00:08:12,120
Zeker niet wanneer deze echt nodig zijn en je helpen.

112
00:08:12,120 --> 00:08:19,080
Het gaat er juist om dat we wel overwogen keuzes maken waarbij we de voordelen van AI afwegen

113
00:08:19,080 --> 00:08:23,280
tegen de energie-nadelen en kosten daarvan.

114
00:08:23,280 --> 00:08:28,160
Dus voor complexe taken die echt de kracht van grote taalmodellen vereisen is het gebruiken

115
00:08:28,160 --> 00:08:29,160
van gerechtvaardigd,

116
00:08:29,160 --> 00:08:32,840
Ja gerechtvaardigd is misschien niet eens het juiste woord.

117
00:08:32,840 --> 00:08:38,240
Maar goed, voor alle dagelijkse toepassingen kunnen we vaak volstaan met eenvoudigere,

118
00:08:38,240 --> 00:08:39,400
energiezuinige alternatieven.

119
00:08:39,400 --> 00:08:43,160
Ik wil deze aflevering afsluiten met een oproep tot actie.

120
00:08:43,160 --> 00:08:48,560
Want in plaats van ons schuldig te voelen over het gebruik van AI kunnen we beter proactieve

121
00:08:48,560 --> 00:08:52,440
stappen ondernemen om het energieverbruik te beheersen en te verminderen.

122
00:08:52,440 --> 00:08:59,320
Dit begint bij bewustwording en eindigt bij concrete acties die energie-efficiëntie, duurzame

123
00:08:59,320 --> 00:09:01,280
innovatie en verantwoordelijkheid bevorderen.

124
00:09:01,280 --> 00:09:07,280
Ik moedig jullie, onze luisteraars, aan om kritisch na te denken over jullie eigen AI-gebruik.

125
00:09:07,280 --> 00:09:11,960
Stel jezelf vragen als "is dit grote model echt nodig voor deze taak?"

126
00:09:11,960 --> 00:09:16,640
"Kunnen we hetzelfde resultaat bereiken met een kleine efficiënte alternatief?"

127
00:09:16,640 --> 00:09:20,640
"Hoe kunnen we onze AI-systemen optimaliseren voor energiebesparing?"

128
00:09:20,640 --> 00:09:26,040
Laat me weten wat jouw tips en trucs zijn voor verantwoorden AI.

129
00:09:26,040 --> 00:09:28,480
Deel je ervaring en ideeën met ons.

130
00:09:28,480 --> 00:09:32,280
Samen kunnen we namelijk bouwen aan een toekomst waarin AI niet alleen krachtig en innovatief

131
00:09:32,280 --> 00:09:34,680
is, maar ook duurzaam en verantwoord.

132
00:09:34,680 --> 00:09:38,200
Dank je wel weer voor het luisteren naar je AIToday Live.

133
00:09:38,200 --> 00:09:41,600
Heb jij ook een vraag die je beantwoord wil zien in de podcast?

134
00:09:41,600 --> 00:09:43,720
Stuur die dan eventjes op.

135
00:09:43,720 --> 00:09:45,400
Makkelijkst is via LinkedIn.

136
00:09:45,400 --> 00:09:48,280
En dan krijg je van ons persoonlijk antwoord.

137
00:09:48,280 --> 00:09:49,800
Dank je wel weer voor het luisteren.

138
00:09:49,800 --> 00:09:50,520
Tot de volgende keer.

139
00:09:50,720 --> 00:09:52,720
[Muziek]


People on this episode