AIToday Live

S06E44 - De meeste algoritmes deugen

Aigency by Info Support Season 6 Episode 44

Stuur ons een bericht

In deze aflevering van AIToday Live staat het thema 'algoritmes en hun rol in ons dagelijks leven' centraal. De discussie wordt gevoerd rondom de stelling dat de meeste algoritmes deugen, geïnspireerd door het boek 'De meeste mensen deugen' van Rutger Bregman.

Er wordt verkend hoe algoritmes, net als mensen, vaak ten onrechte bekritiseerd worden vanwege de acties van enkele. Met voorbeelden uit het dagelijks leven, zoals eenvoudige als-dan-processen en complexere AI-modellen, wordt de positieve impact van algoritmes belicht.

Tegelijkertijd wordt de noodzaak van zorgvuldigheid en verantwoordelijkheid in het ontwerp en de toepassing van algoritmes met grote impact benadrukt.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,760
Hoi, welkom bij een nieuwe aflevering van AIToday Live. Mijn naam is Joop Snijder, CTO bij Aigency.

2
00:00:06,760 --> 00:00:14,160
Vandaag gaan we het hebben over algoritmes en hun rol in ons dagelijks leven. Ik wil

3
00:00:14,160 --> 00:00:20,280
namelijk de stelling deponeren dat de meeste algoritmes deugen. Dit klinkt je misschien

4
00:00:20,280 --> 00:00:26,600
wat bekend in de oren, want we hebben natuurlijk ook een boek 'De meeste mensen deugen'. En

5
00:00:26,600 --> 00:00:33,320
Rutger Bregman heeft dat geschreven. En in zijn boek 'De meeste mensen deugen' stelt hij dat

6
00:00:33,320 --> 00:00:39,080
de meeste mensen van natuur goed zijn en dat onze maatschappij te vaak wordt gedreven door

7
00:00:39,080 --> 00:00:46,080
negatieve vooroordelen en angst. Dit principe kunnen we ook toepassen op algoritmes. Hoewel

8
00:00:46,080 --> 00:00:51,120
er veel aandacht is voor negatieve kanten en de fouten die algoritmes kunnen maken,

9
00:00:51,120 --> 00:00:56,580
is het belangrijk om te onthouden dat de meeste algoritmes goed functioneren en juist

10
00:00:56,580 --> 00:01:01,800
zijn ontworpen met de beste intenties. En net zoals Bregman betoogt dat mensen vaak ten onrechte

11
00:01:01,800 --> 00:01:07,200
als slecht worden gezien vanwege de acties van enkele, kunnen we ook stellen dat algoritmes

12
00:01:07,200 --> 00:01:14,320
vaak ten onrechte worden bekritiseerd vanwege een paar slechte voorbeelden. De meeste algoritmes,

13
00:01:14,320 --> 00:01:20,720
net als de meeste mensen, deugen. Ze zijn ontworpen om ons te helpen en ons leven gemakkelijker te

14
00:01:20,720 --> 00:01:26,560
maken. Laten we beginnen met een eenvoudig voorbeeld uit de keuken. Stel je voor dat je een

15
00:01:26,560 --> 00:01:33,240
heerlijke maaltijd wilt bereiden. De data kun je zien als de ingrediënten, de rauwe groenten,

16
00:01:33,240 --> 00:01:40,720
kruiden en vlees of tofu die je gaat gebruiken. Het algoritme is dan het recept, de instructies

17
00:01:40,720 --> 00:01:47,040
die je volgt om de ingrediënten om te toveren in een smakelijk gerecht. Het model is het eindresultaat,

18
00:01:47,040 --> 00:01:53,200
de maaltijd zelf. Net zoals een kok de kwaliteit van het gerecht bepaalt door zijn of haar vaardigheden

19
00:01:53,200 --> 00:01:58,600
en ervaring, bepaalt een data scientist samen met de opdrachtgever de kwaliteit van het model.

20
00:01:58,600 --> 00:02:04,720
Het beste recept en de meest verse ingrediënten kunnen nog steeds leiden tot een teleurstellende

21
00:02:04,720 --> 00:02:11,760
maaltijd als de kok niet weet wat hij of zij doet. Evenzo kan een krachtig algoritme rijke

22
00:02:11,760 --> 00:02:17,760
data slechte resultaten opleveren zonder de juiste expertise. Het is ook belangrijk om te begrijpen

23
00:02:17,760 --> 00:02:24,960
dat niet alle algoritmes geavanceerde AI modellen zijn. Sommige algoritmes zijn gewoon simpele

24
00:02:24,960 --> 00:02:30,720
als-dan-processen. Zoals de lampen die in huis automatisch uitgaan wanneer de laatste persoon

25
00:02:30,720 --> 00:02:36,480
is vertrokken. Deze simpele algoritmes zijn vaak heel handig in ons leven. Zo zijn er nog meer

26
00:02:36,480 --> 00:02:42,320
eenvoudige als-dan-algoritmes. En hoewel we vaak gefascineerd zijn door de complexiteit

27
00:02:42,320 --> 00:02:48,440
van machine learning en kunstmatige intelligentie, spelen juist deze eenvoudige als-dan-algoritmes

28
00:02:48,440 --> 00:02:54,600
een cruciale rol in de technologie die we dagelijks gebruiken. Een van de bekendste

29
00:02:54,600 --> 00:03:00,080
voorbeelden is de spam filter in je email. Deze filter gebruikt een reeks van regels,

30
00:03:00,080 --> 00:03:06,280
als een email bepaalde woorden of patronen bevat, die vaak voorkomen in spam, dan worden

31
00:03:06,280 --> 00:03:11,800
deze emails naar je spamfolder verplaatst. Het is een simpele maar effectieve manier

32
00:03:11,800 --> 00:03:18,360
om je inbox schoon te houden. Een ander alledaags voorbeeld is een thermostaatprogramma. Stel dat

33
00:03:18,360 --> 00:03:23,280
je een slimme thermostaat hebt die je huis verwarmt. Als de temperatuur onder bepaalde

34
00:03:23,280 --> 00:03:32,120
warmte zakt, schakelt de thermostatenverwarming in. Er zijn daardoor talloze voorbeelden van

35
00:03:32,120 --> 00:03:37,240
algoritmes die uitstekend werk verrichten. Denk aan routeplanners die je snelste weg

36
00:03:37,240 --> 00:03:42,200
naar huis berekenen. Deze toepassingen verbeteren onze efficiëntie en veiligheid op manieren

37
00:03:42,200 --> 00:03:48,840
die we vaak als vanzelfsprekend beschouwen. Toch horen we vooral over de gevallen waar

38
00:03:48,840 --> 00:03:54,800
het juist misgaat. Dat is niet zonder reden. Wanneer algoritmes fouten maken of misbruikt

39
00:03:54,800 --> 00:04:00,640
worden kan dit grote gevolgen hebben. Denk aan discriminatie in overheidsmodellen of

40
00:04:00,640 --> 00:04:07,640
fouten in medische diagnosealgoritmes. Deze incidenten trekken terecht veel aandacht en

41
00:04:07,640 --> 00:04:12,760
zetten ons aan het denken over hoe we algoritmes beter ontwerpen en inzetten.

42
00:04:12,760 --> 00:04:19,840
Ik snap dat het woord algoritme direct een gevoel van complexiteit opwerkt en gedachten

43
00:04:19,840 --> 00:04:26,360
over mogelijke negatieve effecten bij je oproept. Maar we moeten ze goed indelen en vooral kijken

44
00:04:26,360 --> 00:04:32,120
naar modellen die een grote impact hebben en risico op ongewenst gedrag. Daar moeten

45
00:04:32,120 --> 00:04:38,240
we zeer zorgvuldig mee omgaan. Om het af te ronden. De wereld van algoritmes is best

46
00:04:38,240 --> 00:04:44,960
wel complex en veelzijdig. Indien goed gebruik gebruikt maken ze ons leven een stuk eenvoudiger.

47
00:04:44,960 --> 00:04:50,600
Maar net zoals met elke gereedschap moeten we natuurlijk voorzichtig zijn hoe we ze hanteren

48
00:04:50,600 --> 00:04:56,000
en altijd blijven streven naar verbetering en verantwoordelijkheid in een toepassing.

49
00:04:56,000 --> 00:05:03,160
Maar we hoeven niet meteen in de stress te schieten bij het woord algoritme. Soms zijn

50
00:05:03,160 --> 00:05:11,680
het gewoon hele eenvoudige handige algoritmes. Maar waar het gaat om grote impact, groot

51
00:05:11,680 --> 00:05:15,320
risico, moeten we daar gewoon heel zorgvuldig mee omgaan.

52
00:05:15,320 --> 00:05:23,560
Dankjewel weer voor het luisteren naar AIToday Live. Vergeet je niet te abonneren via

53
00:05:23,560 --> 00:05:26,040
je favoriete podcast app. Tot de volgende keer!

54
00:05:26,040 --> 00:05:35,520
[Muziek]


People on this episode