AIToday Live

S06E28 - Wat als je chatbot teveel chat?

April 04, 2024 Aigency by Info Support Season 6 Episode 28
AIToday Live
S06E28 - Wat als je chatbot teveel chat?
Show Notes Transcript

In deze aflevering van AIToday Live verkennen we de ethische implicaties van het ontwikkelen van eigen chatbots en AI-assistenten. Met de beschikbaarheid van tools zoals Custom GPT van OpenAI en Copilot van Microsoft is het verleidelijk om in te springen en te experimenteren met AI-technologie.

Echter, het incident met de chatbot van DPD in het Verenigd Koninkrijk laat zien hoe belangrijk het is om na te denken over de ethische grenzen en verantwoordelijkheden die komen kijken bij het creëren van deze technologieën. We bespreken de noodzaak van het stellen van grenzen aan wat AI kan en mag doen, en de rol van multidisciplinaire teams in het waarborgen van een ethische benadering.


Links

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:06,120
Het creëren van je eigen chatbot of AI assistent is verrassend eenvoudig geworden met tools

2
00:00:06,120 --> 00:00:11,400
zoals Custom GPT van OpenAI en Copilot van Microsoft.

3
00:00:11,400 --> 00:00:14,560
Zij openen de deur naar ongekende mogelijkheden.

4
00:00:14,560 --> 00:00:22,840
Maar terwijl we ons haasten om deze digitale assistenten te omarmen, stuiten we op een

5
00:00:22,840 --> 00:00:23,840
cruciale vraag.

6
00:00:23,840 --> 00:00:29,720
Hebben we wel voldoende nagedacht over de grenzen van wat ze zouden mogen zeggen?

7
00:00:29,720 --> 00:00:33,360
Leuk dat je weer luistert naar een korte aflevering van AIToday Live.

8
00:00:33,360 --> 00:00:36,720
Mijn naam is Joop Snijder, CTO bij Aigency.

9
00:00:36,720 --> 00:00:41,520
Het is eenvoudig om je eigen chatbot of AI assistent te maken.

10
00:00:41,520 --> 00:00:44,800
Een CustomGPT is bij OpenAI zo gemaakt.

11
00:00:44,800 --> 00:00:49,800
Je geeft de bot een naam, voert instructies in hoe de bot moet antwoorden en je kunt zelfs

12
00:00:49,800 --> 00:00:53,400
documenten toevoegen die gebruikt worden voor het geven van antwoorden.

13
00:00:53,400 --> 00:00:59,320
Ook Microsoft heeft een soortgelijke oplossing met Copilot Studio waarbij je zelf eenvoudig

14
00:00:59,320 --> 00:01:05,040
extra data kan ophalen uit bijvoorbeeld back-office systemen en zelfs workflows kan inrichten.

15
00:01:05,040 --> 00:01:10,920
Omdat het zo eenvoudig is om een chatbot te maken is de verleiding groot om hier snel

16
00:01:10,920 --> 00:01:11,920
mee te beginnen.

17
00:01:11,920 --> 00:01:18,040
Met als logische gevolg dat je nadenkt over het doel van de bot en welke vragen de bot

18
00:01:18,040 --> 00:01:19,480
allemaal moet gaan beantwoorden.

19
00:01:19,480 --> 00:01:22,400
Maar er is een grote maar.

20
00:01:22,400 --> 00:01:27,600
Je moet ook nadenken over welke vragen de bot niet mag beantwoorden.

21
00:01:27,600 --> 00:01:32,760
Want vaak mag een bot meer niet beantwoorden dan wel.

22
00:01:32,760 --> 00:01:33,760
Hoe bedoel je?

23
00:01:33,760 --> 00:01:35,240
Vraag je je nu misschien af?

24
00:01:35,240 --> 00:01:38,000
Laten we eens kijken naar een echt voorbeeld.

25
00:01:38,000 --> 00:01:45,360
Pakketdienst DPD heeft in het Verenigd Koninkrijk in de UK een chatbot gebouwd die vragen van

26
00:01:45,360 --> 00:01:46,440
klanten beantwoordt.

27
00:01:46,440 --> 00:01:49,440
Deze chatbot heeft echt live gestaan.

28
00:01:49,440 --> 00:01:55,360
Ze hebben veel werk aan veelgestelde vragen en hoe logisch is het dan dat je deze vragen

29
00:01:55,360 --> 00:01:57,240
door een chatbot wil laten beantwoorden.

30
00:01:57,240 --> 00:02:03,560
Vooral nu met de huidige taalmodellen die niet zo houterig communiceren als die ouderwetse

31
00:02:03,560 --> 00:02:04,560
chatbots.

32
00:02:04,560 --> 00:02:10,400
Deze chatbot had een korte levensduur en werd razendsnel offline gehaald.

33
00:02:10,400 --> 00:02:11,400
Waarom?

34
00:02:11,400 --> 00:02:18,320
Een klant werd ongelooflijk gefrustreerd omdat hij niet goed geholpen werd door de

35
00:02:18,320 --> 00:02:25,960
bot en liet vervolgens de bot vloeken en zelfs een gedicht schrijven over de slechte service

36
00:02:25,960 --> 00:02:26,960
van DPD.

37
00:02:26,960 --> 00:02:28,320
En dat deed hij feilloos.

38
00:02:28,320 --> 00:02:38,120
Dus hij maakte hier een video van en die zette hij op internet en dat ging viral.

39
00:02:38,120 --> 00:02:43,240
DPD haalde als resultaat van snel deze bot offline.

40
00:02:43,240 --> 00:02:48,640
Hier was duidelijk niet goed nagedacht over wat de bot juist niet mag zeggen en niet mag

41
00:02:48,640 --> 00:02:49,640
antwoorden.

42
00:02:49,640 --> 00:02:54,720
Toch lijkt dit wat als een open deur en misschien een ridicule blunder.

43
00:02:54,720 --> 00:03:01,080
Maar voordat je het weet vergeet je in je eigen enthousiasme om hierover na te denken.

44
00:03:01,080 --> 00:03:04,840
Of dat je denkt, nou ja dan alleen een interne bot.

45
00:03:04,840 --> 00:03:06,520
Daar kan toch minder fout gaan?

46
00:03:06,520 --> 00:03:09,880
Laten we nog een voorbeeld nemen.

47
00:03:09,880 --> 00:03:18,520
Een chatbot die antwoord kan geven op veelgestelde vragen die gesteld worden aan personeelszaken,

48
00:03:18,520 --> 00:03:22,160
HR, Human Resource of hoe het in jouw organisatie ook mag heten.

49
00:03:22,160 --> 00:03:23,160
Je weet wat ik bedoel.

50
00:03:23,160 --> 00:03:28,400
Zij worden overladen met vragen die werknemers ook kunnen vinden.

51
00:03:28,400 --> 00:03:32,400
Die antwoorden zouden kunnen vinden in een CAO of HR handboeken.

52
00:03:32,400 --> 00:03:40,040
Maar omdat deze documenten vaak groot zijn, onleesbaar voor een gemiddelde medewerker,

53
00:03:40,040 --> 00:03:46,320
vanwege de bijna waterdichte juridische beantwoording, of dat ze moeilijk vindbaar zijn.

54
00:03:46,320 --> 00:03:52,160
Nou ja, als dat het geval is, dan kom je met je vragen snel weer uit.

55
00:03:52,160 --> 00:03:53,480
Per personeelszaken.

56
00:03:53,480 --> 00:03:59,560
Deze CAO's en handboeken zijn voor iedereen toegankelijk, dus ze kunnen prima ontsloten

57
00:03:59,560 --> 00:04:01,320
worden met een chatbot.

58
00:04:01,320 --> 00:04:06,440
Vragen over ziektmeldingen, begrafenissen of onkostenvergoedingen kunnen zo eenvoudig

59
00:04:06,440 --> 00:04:08,040
door de chatbot worden beantwoord.

60
00:04:08,040 --> 00:04:11,680
En dan ook nog in een voor de medewerker leesbare vorm.

61
00:04:11,680 --> 00:04:17,900
Want taalmodellen zijn zeer goed in het vertalen van complexe zinnen naar juist eenvoudig te

62
00:04:17,900 --> 00:04:18,900
begrijpen taal.

63
00:04:18,900 --> 00:04:21,480
Tot zover geen veldje in de lucht.

64
00:04:21,480 --> 00:04:24,200
Maar laten we teruggaan naar de kern van deze aflevering.

65
00:04:24,200 --> 00:04:27,840
Wat mag je bot niet zeggen?

66
00:04:27,840 --> 00:04:30,800
Heb je zelf al een idee?

67
00:04:30,800 --> 00:04:34,640
Uiteraard mag het geen feitelijke onjuistheden schrijven.

68
00:04:34,640 --> 00:04:41,240
Dit kun je eventueel ondervangen door disclaimers te plaatsen bij de antwoorden en zelfs bronvermelding

69
00:04:41,240 --> 00:04:48,040
aan te bieden, zodat de medewerker zelfverantwoordelijk blijft voor het exact uitzoeken van de feitelijkheid

70
00:04:48,040 --> 00:04:49,040
van een antwoord.

71
00:04:49,040 --> 00:04:51,720
Maar zeg nu eerlijk, hoeveel mensen zullen dit doen?

72
00:04:51,720 --> 00:04:56,000
En als je dat wel doet, val je weer met je neus in de formele stukken.

73
00:04:56,000 --> 00:05:00,640
Maar wat mag de bot nog meer niet zeggen?

74
00:05:00,640 --> 00:05:03,080
Stel een medewerker meldt zich ziek.

75
00:05:03,080 --> 00:05:07,720
"Ik heb een barstende koppijn en ik kom vandaag niet op het werk."

76
00:05:07,720 --> 00:05:13,040
En de bot antwoordt met "Je kunt je ziek melden bij je manager.

77
00:05:13,040 --> 00:05:17,520
Kruip onder een dekentje, neem een paracetamol en dan zien we je morgen weer."

78
00:05:17,520 --> 00:05:19,400
Geen ondenkbaar scenario.

79
00:05:19,400 --> 00:05:24,200
Maar wil je dat de bot dit antwoord geeft?

80
00:05:24,200 --> 00:05:27,680
Nee, sterker nog, het mag niet eens.

81
00:05:27,680 --> 00:05:30,280
En je mag geen medisch advies geven.

82
00:05:30,280 --> 00:05:38,080
Dus we moeten chatbots expliciet beknotten in wat ze niet mogen zeggen.

83
00:05:38,080 --> 00:05:39,360
Of wat ze wel mogen zeggen.

84
00:05:39,360 --> 00:05:41,520
Expliciet beknotten in wat ze mogen zeggen.

85
00:05:41,520 --> 00:05:43,320
Maar hoe doe je dat dan?

86
00:05:43,320 --> 00:05:48,560
Ten eerste moet je zoals gezegd nadenken wat je bot niet mag zeggen.

87
00:05:48,560 --> 00:05:52,320
Dat je dat in ieder geval grotendeels helder hebt.

88
00:05:52,320 --> 00:05:54,720
Dit doet natuurlijk nooit één persoon.

89
00:05:54,720 --> 00:05:58,720
Je hebt hier meerdere personen nodig met verschillende expertise's en met een verschillende

90
00:05:58,720 --> 00:06:02,040
kijk op wat zo'n bot niet zou mogen zeggen.

91
00:06:02,040 --> 00:06:07,280
Ten tweede heb je technologie nodig waarbij je regie hebt over zowel de documenten die

92
00:06:07,280 --> 00:06:14,280
je aanbiedt, de vragen die je gebruiker mag stellen en laten we het vangreels noemen die

93
00:06:14,280 --> 00:06:18,400
ervoor zorgen dat je bot geen ongewenste antwoorden geeft.

94
00:06:18,400 --> 00:06:27,880
En als laatste heb je zoiets nodig als geautomatiseerde testen op die ongewenste antwoorden.

95
00:06:27,880 --> 00:06:32,280
Dat als je bij nieuwe versies van het model je steeds weer kan kijken.

96
00:06:32,280 --> 00:06:37,800
Houdt hij zich aan de restricties die je hem gegeven hebt?

97
00:06:37,800 --> 00:06:42,760
Hoe je dat doet is wel iets voor een volgende aflevering.

98
00:06:42,760 --> 00:06:43,760
Dat gaat nu te ver.

99
00:06:43,760 --> 00:06:44,760
Maar goed.

100
00:06:44,760 --> 00:06:45,760
Even afrondend.

101
00:06:45,760 --> 00:06:51,200
Wat mij betreft kijken we niet alleen met opwinding naar mogelijkheden van chatbots

102
00:06:51,200 --> 00:06:52,440
en AI-assistenten.

103
00:06:52,440 --> 00:07:00,920
Maar ook met een diep besef dat onze verantwoordelijkheid om deze op een verantwoorde manier te gebruiken.

104
00:07:00,920 --> 00:07:03,400
Dus wordt geen DPD UK.

105
00:07:03,400 --> 00:07:08,000
En denk na over wat je bot niet mag zeggen.

106
00:07:08,000 --> 00:07:13,880
Dank je wel weer voor het luisteren naar deze aflevering van AIToday Live.

107
00:07:13,880 --> 00:07:17,120
Abonneer je via je favoriete podcast-app en mis geen aflevering.

108
00:07:17,400 --> 00:07:25,400
[Muziek]

109
00:07:25,400 --> 00:07:54,400
[Muziek]