AIToday Live

S06E16 - Hoe uitlegbaar zijn menselijke beslissingen?

February 22, 2024 Aigency by Info Support Season 6 Episode 16
AIToday Live
S06E16 - Hoe uitlegbaar zijn menselijke beslissingen?
Show Notes Transcript

In deze aflevering van AIToday Live wordt diepgaand ingegaan op Explainable AI (XAI), een sleutelconcept binnen de kunstmatige intelligentie dat streeft naar transparantie en begrijpelijkheid van AI-besluitvormingsprocessen. Het belang van inzicht in hoe AI-modellen tot bepaalde conclusies komen, wordt uitvoerig besproken om fouten, vooroordelen en de betrouwbaarheid van uitkomsten te kunnen adresseren.

Daarbij worden de uitdagingen en kansen die XAI met zich meebrengt belicht. Deze aflevering biedt luisteraars een helder overzicht van de essentiële aspecten van XAI, gezien door de lens van expertise op het gebied van AI-technologie.


Links

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:05,240
Welkom bij een nieuwe, korte aflevering van AIToday Live met vandaag.

2
00:00:05,240 --> 00:00:08,800
Als we onze eigen besluiten al niet echt kunnen uitleggen,

3
00:00:08,800 --> 00:00:12,880
verwachten we daar niet te veel van machines om besluiten wel uit te leggen.

4
00:00:12,880 --> 00:00:19,520
Ik ben te gast geweest in de podcast 'De Dataloog' en daarin spraken we uitgebreid

5
00:00:19,520 --> 00:00:21,120
over Explainable AI.

6
00:00:21,120 --> 00:00:27,720
En een reactie die ik vaker krijg als ik over Explainable AI spreek of schrijf is het volgende.

7
00:00:27,720 --> 00:00:33,560
Hoe uitlegbaar zijn beslissingen eigenlijk als mensen ze nemen en weten we altijd van

8
00:00:33,560 --> 00:00:35,920
onszelf waarom we iets vinden en besluiten?

9
00:00:35,920 --> 00:00:41,360
Hebben we eigenlijk wel altijd toegang tot deze argumenten en kunnen we deze uitleggen?

10
00:00:41,360 --> 00:00:46,600
Om goed antwoord te geven moeten we eerst kijken naar hoe we als mensen besluiten nemen

11
00:00:46,600 --> 00:00:47,600
en die uitleggen.

12
00:00:47,600 --> 00:00:52,600
Want deze menselijke beoordeling is namelijk niet altijd goed de grond.

13
00:00:52,600 --> 00:00:58,860
Het maken van beslissingen is een fundamenteel aspect van het menselijk bestaan en speelt

14
00:00:58,860 --> 00:01:03,160
een cruciale rol in zowel ons persoonlijke als professionele leven.

15
00:01:03,160 --> 00:01:10,320
Hoewel we vaak streven naar rationele besluitvorming, gebaseerd op logica en feiten, is de invloed

16
00:01:10,320 --> 00:01:14,240
van irrationele of emotionele factoren niet te onderschatten.

17
00:01:14,240 --> 00:01:21,100
Laten we kijken naar de complexiteit van het besluitvormingsproces, de balans tussen rationele

18
00:01:21,100 --> 00:01:27,160
en emotionele componenten en hoe we deze kennis kunnen gebruiken, juist als argument voor

19
00:01:27,160 --> 00:01:29,160
explainable AI.

20
00:01:29,160 --> 00:01:34,800
Rationele besluitvorming is het proces waarbij individuen beslissingen nemen op basis van

21
00:01:34,800 --> 00:01:37,800
feiten, data en logische redenering.

22
00:01:37,800 --> 00:01:44,720
Dit model gaat ervan uit dat mensen optimaal handelen binnen de grenzen van de beschikbare

23
00:01:44,720 --> 00:01:50,640
informatie en consistent streven naar wat gezegd wordt aan het maximaliseren van hun

24
00:01:50,640 --> 00:01:51,960
welzijn of winst.

25
00:01:51,960 --> 00:01:58,960
Het rationele proces omvat het identificeren van het probleem, het verzamelen van informatie,

26
00:01:58,960 --> 00:02:05,280
het evalueren van alternatieven en daar dan het uitkiezen van de beste optie.

27
00:02:05,280 --> 00:02:13,360
Een kernaspect van rationele besluitvorming is het concept van bounded rationality.

28
00:02:13,360 --> 00:02:19,360
Hoewel mensen streven naar rationaliteit, zijn onze cognitieve capaciteiten beperkt.

29
00:02:19,360 --> 00:02:25,640
We kunnen niet alle mogelijke informatie en alternatieven verwerken wat leidt tot

30
00:02:25,640 --> 00:02:32,840
sacrificing, het kiezen van een optie die goed genoeg is in plaats van optimaal.

31
00:02:32,840 --> 00:02:38,120
Daarnaast hebben we te maken met emotionele besluitvorming.

32
00:02:38,120 --> 00:02:44,360
Dat verwijst naar beslissingen die sterk worden beïnvloed door gevoelens, stemmingen of andere

33
00:02:44,360 --> 00:02:45,600
niet-logische factoren.

34
00:02:45,600 --> 00:02:51,880
Emoties kunnen onze perceptie van feiten kleuren, leiden tot vertekeningen in ons oordeel en

35
00:02:51,880 --> 00:02:56,480
ons duwen naar beslissingen die niet noodzakelijk in ons beste belang zijn.

36
00:02:56,480 --> 00:03:01,640
Zo kennen we bijvoorbeeld de confirmation bias.

37
00:03:01,640 --> 00:03:06,920
Die zorgt ervoor dat we informatie zoeken die onze bestaande overtuigingen bevestigt.

38
00:03:06,920 --> 00:03:14,120
Ook hebben we soms te maken met loss aversion, waardoor we meer gemotiveerd zijn om verliezen

39
00:03:14,120 --> 00:03:17,480
te vermijden dan om gelijkwaardige winsten te behalen.

40
00:03:17,480 --> 00:03:23,920
In werkelijkheid zijn de meeste beslissingen die we nemen niet volledig rationeel of emotioneel,

41
00:03:23,920 --> 00:03:25,720
ze zijn een mengsel van beide.

42
00:03:25,720 --> 00:03:30,000
Emoties kunnen ons oordeel vertroebelen en ons leiden naar ondoordachte beslissingen.

43
00:03:30,000 --> 00:03:36,640
Emoties spelen een cruciale rol in de initiële besluitvorming omdat ze snel en efficiënt

44
00:03:36,640 --> 00:03:42,720
onze aandacht kunnen richten op iets anders dat belangrijk is of voelt, gebaseerd op

45
00:03:42,720 --> 00:03:44,960
eerdere ervaringen en waarden.

46
00:03:44,960 --> 00:03:49,800
Maar in een wereld die veel waarden hecht aan logica en rationaliteit, kunnen mensen

47
00:03:49,800 --> 00:03:55,840
zich gedwongen voelen om hun emotionele keuzes te rechtvaardigen met logische redeneringen.

48
00:03:55,840 --> 00:04:01,600
Dit kan leiden tot selectieve interpretatie van de beschikbare informatie om de gemaakte

49
00:04:01,600 --> 00:04:02,840
keuzes te ondersteunen.

50
00:04:02,840 --> 00:04:10,640
Dus, inderdaad, als mensen besluiten nemen, is het niet even transparant, niet even uitlegbaar.

51
00:04:10,640 --> 00:04:18,640
Maar nu krijgen we te maken met een technologie die keuzes kan maken en waarvan wij kunnen

52
00:04:18,640 --> 00:04:20,800
bepalen hoe die technologie eruitziet.

53
00:04:20,800 --> 00:04:28,960
Dus als we de stap maken naar machine learning, dan is een machine learning model een benadering

54
00:04:28,960 --> 00:04:36,320
van de werkelijkheid en heeft ook niet alle informatie ter beschikking en kan vaak maar

55
00:04:36,320 --> 00:04:39,600
op één uitkomst gemaximaliseerd worden.

56
00:04:39,600 --> 00:04:45,400
Bijvoorbeeld klantbehoud optimaliseren of e-mail in de juiste categorie indelen.

57
00:04:45,400 --> 00:04:52,200
Maar het kan wel gebruik maken van de informatie die wordt aangeboden en dat kunnen honderden

58
00:04:52,200 --> 00:04:54,680
of duizenden variabelen zijn.

59
00:04:54,680 --> 00:05:02,160
Hier bepalen wij ook wat de boundaries zijn van de informatie die meegenomen kan worden

60
00:05:02,160 --> 00:05:03,920
in zo'n model.

61
00:05:03,920 --> 00:05:12,080
Met deze technologie, als we dan daar besluitvorming mee gaan modelleren en mogelijk besluiten

62
00:05:12,080 --> 00:05:14,520
gaan automatiseren, krijgen we dus een keuze.

63
00:05:14,520 --> 00:05:17,840
Gaan we dat wel of niet uitlegbaar maken?

64
00:05:17,840 --> 00:05:22,040
Ik zie dan liever hoe het model een besluit neemt.

65
00:05:22,040 --> 00:05:23,880
Hoe het als het ware redeneert.

66
00:05:23,880 --> 00:05:31,160
Wij hebben de keuze of een blackbox model waar we niet in kunnen kijken, laten we zeggen

67
00:05:31,160 --> 00:05:38,740
hoe wij als mens besluiten nemen, of wij zo'n blackbox acceptabel vinden of dat we willen

68
00:05:38,740 --> 00:05:41,840
begrijpen hoe de machine tot een uitkomst is gekomen.

69
00:05:41,840 --> 00:05:49,360
Wat mij betreft hoe belangrijker het besluit, hoe belangrijker het is dat we uitleg krijgen.

70
00:05:49,360 --> 00:05:57,400
Bij uitlegbare AI weten we de gebruikte informatie, zien we hoe de besluiten worden genomen en

71
00:05:57,400 --> 00:06:02,800
met deze uitleg kunnen we fouten opsporen, mogelijke vooroordelen vinden en krijgen we

72
00:06:02,800 --> 00:06:07,000
de mogelijkheid om een uitkomst op zijn betrouwbaarheid te controleren.

73
00:06:07,000 --> 00:06:14,840
Maar nogmaals, een machine learning model is een benadering van de werkelijkheid en tussen

74
00:06:14,840 --> 00:06:23,120
de input data en label, de uitkomst, zat meestal een menselijke beoordeling.

75
00:06:23,120 --> 00:06:24,360
Dat moeten we niet vergeten.

76
00:06:24,360 --> 00:06:32,920
Dus ook al proberen we het zo objectief mogelijk te maken en kunnen we inzicht krijgen in

77
00:06:32,920 --> 00:06:40,480
hoe het model een besluit neemt, zit daar nog steeds het ondoorgrondelijke van de mens

78
00:06:40,480 --> 00:06:41,480
in.

79
00:06:41,480 --> 00:06:46,080
Toch, als het mogelijk is, kies ik altijd voor uitlegbare AI.

80
00:06:46,080 --> 00:06:51,400
De technologie kan zo een nieuwe dimensie toevoegen ten opzichte van onze ondoorgrondelijke

81
00:06:51,400 --> 00:06:58,240
besluitvorming en daarmee inzicht geven die voor ons als mens onvoorstelbaar is.

82
00:06:58,240 --> 00:07:05,040
Leuk dat je weer luisterde naar een korte aflevering van AIToday Live.

83
00:07:05,040 --> 00:07:07,800
Mijn naam is Joop Snijder, CTO bij Aigency.

84
00:07:07,800 --> 00:07:09,240
Tot de volgende keer!

85
00:07:09,240 --> 00:07:15,240
-

86
00:07:15,240 --> 00:07:17,240
-